L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 615 résultats.
Offre d'emploi
Data Analyst Sénior Montpellier
Deodis
Publiée le
Data analysis
36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)
OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow
3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Offre d'emploi
Ingénieur Infrastructure Cloud Microsoft H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Villeneuve-d'Ascq, Hauts-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Nord-Normandie accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Pour l'une de nos clients, grand acteur de l'agro-alimentaire, vous rejoignez une équipe d‘Ingénieurs systèmes afin de participer activement aux projets de transformation IT (80% Build) et au maintien en conditions des infrastructures OnPremise et cloud (20% Run). Vous travaillez en transverse avec les équipes réseau, sécurité, support et projets. Vos responsabilités : • Administrer et faire évoluer les environnements Microsoft Windows Server, Active Directory • Participer à la migration et à l'exploitation d'environnements Cloud publics et privés • Mettre en œuvre les solutions Infrastructure as Code (Iac) via Packer, Terraform, Ansible • Gérer et optimiser les environnements VMware avec vSphere, vCenter • Contribuer aux projets de transformation IT (sécurité, automatisation, modernisation) • Assurer le support de niveau 3 sur les infrastructures serveurs Mettre en place une veille technologique et contribuer à la mise en place de bonnes pratiques L'environnement technique : Microsoft Windows Server, AWS ou Azure, Terraform, PowerShell, Ansible, VMware, Active Directory, DNS, GPO (formations à prévoir). Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : site client basé à Villeneuve d'Ascq (59) Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 6sn8ls8a26
Offre d'emploi
Analyste d'exploitation (H/F)
SEA TPI
Publiée le
30k-34k €
Montpellier, Occitanie
Dans le cadre d'un accroissement d'activité, SEA TPI recrute un Analyste d'exploitation, afin d'intervenir chez notre client, acteur majeur de l'assurance en France. Vos missions principales : - Surveillance des systèmes et des applications : Assurer la surveillance en temps réel des systèmes et des applications pour garantir leur bon fonctionnement. - Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques et analyser les causes à l'origine des anomalies et proposer des contournements ou solutions pérennes. -Gestion des demandes de services selon un catalogue établi dans le cadre de l'exploitation. -Gestion des changements et des mises en production : tester et livrer des évolutions ou correctifs. - Automatisation des processus : Être force de proposition et identifier des opportunités en développant des scripts pour automatiser les tâches récurrentes et améliorer l'efficacité des opérations. - Documentation : Rédiger et maintenir à jour la documentation technique. - Collaboration inter-équipes : Travailler en étroite collaboration avec les équipes techniques pour optimiser les performances et la disponibilité des systèmes. - Maintenance et optimisation : Effectuer des opérations de maintenance préventive et corrective pour optimiser les performances des systèmes. Les missions énumérées ne sont pas exhaustives, il s'agit des missions principales. - Horaires en 2/8 (6h/13h et 13h/20h) du Lundi au Vendredi avec une rotation pour les permanences les Samedis (7h/17h) - Astreintes possibles et intervention en HNO en fonction des projets et de demandes du client - Déplacements à Niort 1 à 2 fois par an pendant une semaine Référence de l'offre : ox8g6lblr1
Offre d'emploi
Ingénieur Systèmes, Réseaux & Cloud GCP H/F
Le Groupe SYD
Publiée le
Exchange Online
GitLab CI
Kubernetes
12 mois
45k-48k €
450-500 €
Rennes, Bretagne
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Systèmes, Réseaux & Cloud H/F 📍 Lieu : Rennes (35) 🏠 Télétravail : Flexible 📝 Contrat : CDI ou Indep/portage 👉 Contexte client : Tu rejoins un acteur international du secteur de la restauration et de l’agroalimentaire , présent sur de nombreux sites en France et à l’étranger. Au sein de cette équipe, tu interviendras sur un périmètre stratégique couvrant les infrastructures systèmes, le réseau, la sécurité, la containerisation, le Cloud public (GCP) ainsi que la gestion des projets techniques. Tu auras pour missions de : Concevoir, déployer, optimiser et assurer le MCO des infrastructures. Administrer Windows, Linux, VMware, stockage (NetApp/IBM) et sauvegardes (Veeam). Gérer Exchange Online, AD / Azure AD et intervenir sur les environnements Open Source. Prendre en charge Kubernetes, GitLab CI et Terraform pour l’infrastructure GCP . Administrer les solutions de sécurité (firewalls, proxy, WAF, PAM, SSE, EDR, SSO). Intervenir sur les réseaux Cisco/Nexus : LAN, WAN, routage, SD‑WAN. Être force de proposition , piloter les intégrateurs et maintenir les procédures et documents d’exploitation. Conduire les projets techniques de bout en bout, assurer le reporting et le pilotage des prestataires. Gérer l’ escalade N2 , traiter les demandes utilisateurs et assurer une veille technologique. 🧰 Stack technique : Systèmes : Windows Server, Linux, VMware. Cloud & Infra : GCP, Terraform, GitLab CI, Kubernetes. Stockage & Sauvegarde : NetApp, IBM, Veeam. Sécurité : Firewall, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO. Réseau : Cisco, Nexus, TCP/IP, LAN, WAN, SD‑WAN, routage. Identité & Messagerie : AD, Azure AD, Exchange Online.
Offre d'emploi
Ingénieur système Linux / Devops H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-55k €
Maisons-Laffitte, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers notre activité Services en région Ile De France, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe de l'aéronautique défense nucléaire, sur un périmètre sécurisé d'un de nos prestigieux client, nous recherchons un/e ingénieur système Linux / Devops. L'annuaire client évolue vers un système d'identité numérique et autorisations afin de refondre la gestion des identités numériques et des autorisations des utilisateurs des Si. Cela nécessite l'intégration de nouvelles briques comme le référentiel des identités numériques. Les prestations se décomposent en différente activités : • Mise à jour ou création de documents d'architecture (technique, fonctionnelle et logique) ; • Remédiation sur des composants d'une infrastructure à haut niveau de disponibilité ; • Mise en place d'un environnement d'automatisation (type Ansible) ; • L'administration de systèmes LINUX (RHEL, CENTOS ou DEBIAN) ; • La rédaction de scripts bash, ou l'utilisation de langages de programmation ; • Paramétrage de logiciels ou services et création de scripts nécessaires au diagnostic d'incident ; • Vérification du bon fonctionnement suite à une mise à niveau d'un service d'infrastructure ; • Industrialisation d'actions sur la maintenance (MCO, MCS, tests de fonctionnement) ; • Rédaction de documents / procédures sur la maintenance / l'exploitation.. Contrat : uniquement en CDI Localisation : prestation de client grand compte à Maisons-Laffitte 78 Télétravail possible : Non Salaire : selon formation, compétences, expérience. Référence de l'offre : 87do16t21u
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Offre d'emploi
INGENIEUR RESEAU (H/F)
GROUPE ALLIANCE
Publiée le
DNS
F5
Fortinet
45k-50k €
Bondoufle, Île-de-France
ACCROCHE CE QUE TU RECHERCHES : Concevoir, déployer et optimiser des infrastructures réseau performantes Travailler sur des environnements critiques à forte disponibilité Relever des défis techniques en connectivité, sécurité et automatisation Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi Au sein d’un acteur majeur du secteur , tu participeras : Conception des architectures LAN, WAN, Wi-Fi, tu réaliseras Déploiement et administration des équipements réseau, tu piloteras Optimisation des flux et sécurisation des accès, tu assureras Gestion des incidents et amélioration continue des performances, tu coordonneras Automatisation des opérations réseau avec Ansible et Terraform, tu impulseras Veille technologique et intégration des solutions innovantes, tu effectueras Collaboration avec les équipes infrastructure, cloud et sécurité, tu animeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué ou expérience de ans minimum en ingénierie réseau et télécommunications Expert(e) sur : Bonne connaissance des environnements cloud : AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu aimes construire des réseaux fiables et performants Autonome : tu pilotes tes projets d'évolution et de migration avec maîtrise Esprit de synthèse : tu analyses et simplifies des architectures complexes Visionnaire : tu anticipes les évolutions réseau et cybersécurité Méthodique : tu structures et documentes chaque changement Communicant(e) : tu sais vulgariser les concepts réseau pour les équipes métiers Réactif(ve) : tu sais intervenir rapidement en cas d’incident Pragmatique : tu proposes des solutions adaptées aux besoins terrain Pédagogue : tu partages ton expertise et accompagnes la montée en compétence Organisé(e) : tu mènes plusieurs projets sans jamais perdre le fil
Offre d'emploi
Chef de projet applicatif Production/MES H/F - STRASBOURG
ITEA
Publiée le
MES (Manufacturing Execution System)
40k-55k €
Saverne, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Chef de projet applicatif Production/MES H/F et vous présentons les points clés du poste : Poste en CDI Basé à Saverne Secteur de l'industrie Les conditions : Fourchette salariale : 40-55k€ selon le profil et les expériences 1 jour de télétravail par semaine Plus précisément, les missions : Standardisation des processus métiers : Collaborez avec les Business Units pour harmoniser les processus d'ordonnancement, de lancement et de déclaration des activités de production. En partenariat avec les équipes informatiques, faites évoluer les outils pour répondre aux besoins métiers Déploiement des systèmes MES : Pilotez l'implémentation des systèmes MES sur les différents sites, définissez les business cases locaux, collectez les besoins d'évolution et assurez la cohérence avec les ERP Participation au projet SAP : étudier et superviser les interfaçages avec SAP S4/HANA Indicateurs de performance : Établissez et animez la publication des indicateurs de performance spécifiques à votre domaine
Offre d'emploi
Chef de Projet WMS/Data
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
Mission freelance
Consultant(e) – Étude de Faisabilité Finance Data
Lùkla
Publiée le
API
Cloud
High Level Design (HLD)
1 an
Marseille, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre d’un projet Groupe, nous recherchons un(e) consultant(e) pour réaliser une étude de faisabilité visant l’intégration des données financières des terminaux dans les Finance Datamarts Groupe . Le périmètre couvre les processus : Accounts Payable (AP) Accounts Receivable (AR) General Ledger (GL) L’environnement est multi-ERP (IFS, SAP, Sage, Navision…) avec une gouvernance décentralisée et des niveaux de maturité hétérogènes. Objectifs de la mission : Le consultant interviendra exclusivement sur une phase d’étude et d’aide à la décision , incluant : Analyse des processus financiers des terminaux Cartographie des ERP et des flux de données Évaluation de la qualité et de la cohérence des données Analyse des architectures et patterns d’intégration (batch, API, cloud-to-cloud) Étude des aspects gouvernance, sécurité et conformité Définition de scénarios de faisabilité (2 à 3 options) Recommandation finale de type Go / No Go Livrables attendus : Analyse fonctionnelle détaillée Cartographie des systèmes et data Schémas d’architecture de haut niveau (HLD) Scorecards de faisabilité Analyse des risques et plans de mitigation Rapport final consolidé Support de comités de pilotage
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Mission freelance
Lead QA ERP ( H/F)
ALLEGIS GROUP
Publiée le
Cegid
ERP
JIRA
1 an
270-650 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un projet stratégique de migration de l’outil interne « maison » vers l’ERP Cegid , notre client renforce son équipe SI avec un QA spécialisé ERP . Votre mission sera de garantir la qualité des développements, des paramétrages et des flux associés à la nouvelle solution. Une expérience sur Cegid est un très fort atout. À défaut, une solide expérience sur tout ERP est obligatoire (type SAP, Oracle, Dynamics, Sage, etc.). Missions principales 1. Qualité & Tests sur l’ERP Cegid Définir, rédiger et maintenir les plans de tests fonctionnels et techniques. Exécuter les campagnes de tests : unitaires, intégration, non-régression, UAT. Suivre les anomalies, les qualifier et vérifier leur correction. 2. Accompagnement de la migration Comprendre et analyser l’outil interne existant et ses règles métier. Participer à la validation des spécifications fonctionnelles. Vérifier la conformité des flux migrés entre l’outil actuel et Cegid. 3. Documentation & outils Utiliser Xray pour le pilotage et la documentation des tests. Exploiter SQL pour réaliser des contrôles, vérifications et extractions de données. Documenter toutes les procédures qualité et résultats des tests. 4. Communication & coordination Travailler étroitement avec les équipes métiers, MOA, MOE et intégrateurs Cegid. Communiquer clairement les risques, blocages, points de vigilance. Participer aux ateliers, réunions projet et comités de suivi.
Offre d'emploi
Analyste Data & Reporting (Power BI / ITSM Obligatoire) 4 ans minimum en CDI - H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Dans le cadre de l’amélioration continue des activités de pilotage et d’architecture au sein de la DTO, nous recherchons un(e) Analyste Data & Reporting spécialisé(e) Power BI capable de conduire des études techniques ciblées ayant un impact sur l’architecture . La mission consiste à réaliser des analyses techniques à forte valeur ajoutée , permettant de répondre à des problématiques spécifiques et d’orienter les décisions d’architecture et de pilotage. Missions : Vous interviendrez notamment sur les activités suivantes : Data & Reporting : Analyse et amélioration continue des tableaux de bord Power BI de la DTO Production et fiabilisation des indicateurs d’Engagement de Services Production des indicateurs de pilotage Support ITSM Analyse des données et identification d’axes d’amélioration Études techniques : Réalisation de petites études techniques ciblées Analyse d’impact sur l’architecture existante Proposition de pistes d’amélioration ou d’évolution Documentation et valorisation : Rédaction des modes opératoires d’exploitation des données Formalisation et communication des résultats
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6615 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois