L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 148 résultats.
Offre d'emploi
Tech lead réseaux et sécurité H/F
Karma Partners
Publiée le
Cisco
LAN
SD-WAN
6 mois
40k-50k €
400-550 €
Chambéry, Auvergne-Rhône-Alpes
Poste à pourvoir en pré-embauche / Presta + CDI - analysez, concevez et validez les solutions techniques et architectures informatiques des infrastructures IT - intervenez dans les phases amonts des projets pour identifier, définir et déployer les technologies d'infrastructures les plus pertinentes tout en restant garant du respect des normes, méthodes et règles de sécurité du Groupe - travaillez en étroite collaboration avec les équipes « Enterprise Architecture » et « Sécurité » du groupe ainsi que les SPM et les DM Vos missions: 1. Assurer la responsabilité de la phase de DESIGN des projets (Projet = DESIGN, BUILD et RUN) en incluant l'étude et la validation des solutions : - Piloter la phase d'architecture et d'étude des projets - Apporter une vision technique dans le chiffrage de projet - Piloter la réalisation des POCs 2. Participer à la phase BUILD des projets : - S'assurer que la solution technique est construite en accord avec les documents d'architecture techniques - Participer via le comité d'architecture à la définition des standards, des configurations et des bonnes pratiques suivant les technologies utilisées. - Vous fournissez des rapports d'avancement de vos travaux à votre management et aux autres membres de l'équipe 3. Contribuer à la gestion de la Production : - Vous participez à l'activité opérationnelle de l'équipe (Run / Astreintes / Intervention planifiées) et opérez dans un contexte international selon les bonnes pratiques ITIL - Vous vous mettez à la disposition de l'équipe pour apporter votre expertise dans la résolution d'incidents et vous documentez vos travaux avec des procédures et documents d'exploitation 4. Assurer une veille technologique : - Vous êtes force de proposition pour faire évoluer l'existant et améliorer l'efficacité du service rendu en effectuant une veille technologique - Vous avez une culture de « l'infrastructure as a code » et une appétence sur les sujets d'automatisation des déploiements, de configuration et optimisation des composants utilisés sur les technologies.
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Mission freelance
Data analyst / Support analyst
UCASE CONSULTING
Publiée le
Microsoft Excel
3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS pour HUXLEY
Publiée le
6 mois
France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Offre d'emploi
Data Engineer - GCP / BigQuery (H-F)
K-Lagan
Publiée le
Big Data
BigQuery
Dataiku
1 an
45k-50k €
500-550 €
Niort, Nouvelle-Aquitaine
🚀 Chez K-LAGAN, nous parions sur vous ! Vous recherchez un projet data structurant , dans un environnement moderne et orienté cloud & analytics ? Vous souhaitez évoluer sur des sujets à forte valeur ajoutée au sein d’une Data Platform ambitieuse ? Alors cette opportunité pourrait vous intéresser 👇 🔍 Nous recrutons un·e Data Engineer (F/H) confirmé Pour rejoindre l’un de nos clients et contribuer activement au développement de sa Data Fabrik , dans un environnement innovant et orienté performance. 🎯 Vos missions Définir les pré-requis techniques nécessaires aux nouveaux cas d’usage data Participer à la conception et l’implémentation de nouveaux modèles de données Développer, optimiser et maintenir les pipelines de transformation Contribuer à l’évolution des outils et bonnes pratiques Data Engineering Garantir la qualité, la fiabilité et la performance des traitements Collaborer étroitement avec les équipes Data, BI et Métiers
Mission freelance
Product Ownership des Socles Legacy Réseau H/F
Cheops Technology
Publiée le
Réseaux
12 mois
400 €
Nantes, Pays de la Loire
B – PRESTATIONS ATTENDUES • Maintien en condition opérationnel des socles techniques ; • Identifier et communiquer des éventuelles évolutions applicatives pour se conformer aux prérequis techniques dans le nouveau data center (ex : chiffrement des fichiers échangés) • Animer les ateliers, comités de projets et Comités de pilotage réguliers avec les parties prenantes ; • Gérer le backlog des user stories ; • Garantir et organiser les Démos et Recettes ; • Réaliser des reporting projet ; • Encourager et faciliter les études d’impacts ; • Dresser le planning des livrables ; • Être garant de la qualité, du coût et des délais de chaque livrable ; • Capitaliser et structurer la connaissance pour une meilleure lisibilité du SI, en intégrant les différents points de vue (stratégique, métier, technique, …) ; • Définir et suivre le Capacity Planning & préconisation sur l'utilisation des ressources.
Mission freelance
Data Analyst confirmé
Codezys
Publiée le
Data visualisation
PySpark
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Offre d'emploi
Architecte data - Secteur Industrie
OCTOGONE
Publiée le
Cybersécurité
2 ans
Hauts-de-Seine, France
Objectif : Garantir la cohérence, la pérennité et la sécurité de l'ensemble des solutions techniques et applicatives déployées Concevoir l'architecture des données (modèles, flux, stockage, plateformes). Définir les principes de gouvernance et de qualité des données. Garantir la sécurité et l'exploitabilité de la data. TELETRAVAIL : 2 jours / semaine / Déplacements possibles à l’étranger dans le cadre de certaines missions Une expérience en environnement Industriel - Usine est obligatoire
Offre d'emploi
Ingénieur systèmes et réseaux F/H
Experis France
Publiée le
35k-48k €
Orléans, Centre-Val de Loire
Ingénieur systèmes et réseaux F/H - Orléans Ingénieur Systèmes & Réseaux (F/H) Rejoignez une équipe dynamique de 6 personnes au sein d'une structure en pleine modernisation de ses infrastructures. Vous interviendrez sur un parc technique varié et critique, comprenant notamment des environnements sensibles. 🎯 Vos missions principales En tant qu'Ingénieur Systèmes & Réseaux, vous participez activement à l'évolution, la sécurité et la performance du système d'information : Administration & Exploitation Gestion quotidienne des environnements Linux Debian et Windows Server 2016 à 2019 . Supervision d'un parc composé de 4 serveurs physiques , 80 machines virtuelles Windows et 15 VM Linux Debian . Administration des postes de travail Windows 10 . Gestion de la virtualisation sous Hyper‑V . Projets & Modernisation Participation au pilotage de projets d'infrastructure . Contribution à la refonte réseau récemment engagée. Migration vers de nouveaux serveurs et accompagnement des évolutions technologiques. Mise en place d'infrastructures dédiées à des données sensibles . Sécurité & Supervision Déploiement, configuration et administration de Centreon . Gestion des sauvegardes via Veeam . Participation au changement de solution antivirus et à l'amélioration du niveau de sécurité global.
Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Offre d'emploi
Data Analyste (H-F) à Niort
K-Lagan
Publiée le
Big Data
1 an
10k-48k €
100-450 €
Niort, Nouvelle-Aquitaine
Chez K-LAGAN, nous parions sur vous ! 🚀 K-LAGAN est un cabinet de conseil spécialisé dans la Data, l'ingénierie, la technologie de l'information et la gestion de projets. Présente à l'international, notre mission est d’accompagner nos clients dans des secteurs variés tels que l’assurance, la finance, l’industrie, l’automobile et les télécommunications, en leur proposant des solutions sur mesure. 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) Data Analyst , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients très connu dans le secteur assurances, basé à Niort.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6148 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois