L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 186 résultats.
Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake
5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Offre d'emploi
Directeur des Systèmes d'Information H/F
HAYS France
Publiée le
75001, Paris, Île-de-France
Rattaché à la Direction Générale, le DSI pilote la stratégie des systèmes d'information du groupe afin de soutenir la qualité des soins, la performance financière et l'expérience des patients et des médecins.Il veille à un SI sécurisé, fiable, interconnecté et orienté valorisation des données. Responsabilités clés : Stratégie et pilotage IT Construire et suivre la feuille de route SI Assurer la cohérence entre IT et stratégie groupe Gérer le budget et les investissements IT Exploitation et continuité de service Garantir la disponibilité des applications et infrastructures Superviser les outils métiers (RIS / PACS) Piloter les environnements réseaux et systèmes multi-sites Mettre en œuvre les dispositifs PRA / PCA Interopérabilité santé Fluidifier les échanges de données avec les partenaires médicaux Appliquer les standards DICOM et HL7 Intégrer le SI dans l'écosystème de santé Sécurité et conformité Déployer la politique de cybersécurité Garantir la conformité réglementaire (RGPD, HDS) Gérer les relations avec les autorités de contrôle Transformation digitale Mener les projets de modernisation numérique Améliorer le parcours patient et médecin Introduire des solutions innovantes (IA, automatisation des processus) Data et pilotage de la performance Structurer et exploiter les données du groupe Déployer des outils de reporting et d'aide à la décision Accompagner les métiers dans l'usage de la donnée Management et partenaires Organiser et encadrer l'IT interne (actuel et futur) Piloter les prestataires et éditeurs Mettre en place une organisation évolutive adaptée à la croissance
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR / ITINERANT H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-24 001 €
Gémenos, Provence-Alpes-Côte d'Azur
Missions principales : En tant que technicien Support Utilisateurs - Itinérant vous auriez comme missions : • Assurer le support de proximité auprès des utilisateurs sur différents sites clients, en identifiant leurs besoins et en garantissant une prise en charge rapide et efficace des incidents. • Intervenir sur plusieurs sites afin d'assurer la continuité du support informatique et le maintien en condition opérationnelle des équipements. • Diagnostiquer et résoudre les incidents liés aux postes de travail, à la téléphonie fixe et mobile, aux réseaux ainsi qu'aux équipements de visioconférence. • Effectuer des déplacements réguliers sur plusieurs sites Thales ( notamment Gémenos, La Ciotat, Aix-en-Provence ) afin d'assurer le support et les interventions techniques nécessaires. • Réaliser des contrôles réguliers des salles de visioconférence afin de garantir leur bon fonctionnement avant les réunions ou événements. • Assurer la maintenance de premier niveau sur les postes utilisateurs ( Windows 10 / 11 ) ainsi que sur les périphériques associés. • Effectuer des opérations de câblage réseau, de diagnostic et de résolution d'incidents de connectivité. • Enregistrer, qualifier et suivre les tickets d'incidents et de demandes dans les outils ITSM conformément aux procédures internes. • Accompagner les utilisateurs dans l'utilisation des outils informatiques et collaboratifs mis à leur disposition. • Participer aux déploiements, renouvellements ou installations de matériels informatiques sur les différents sites. • Travailler en collaboration avec les équipes techniques et les interlocuteurs locaux, dans le respect des procédures de sécurité et des standards du client. Référence de l'offre : 1brdv2wblb
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Offre d'emploi
Technicien Support de Proximité (H/F)
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
25k-28k €
Toulouse, Occitanie
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Occitanie accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand acteur Toulousain, vous rejoignez une équipe de Technicien et aurez pour mission le support aux utilisateurs en proximité. Vos responsabilités : • Assurer l'accueil des utilisateurs en proximité • Prendre en charge les incidents sur l'outil de ticketing et identifier le problème • Gérer les besoins (livraison de matériels et configurations, retraits, installation logiciels) • Garantir la bonne tenue du stock • Conseiller les utilisateurs et s'assurer de leur satisfaction • Partager et collaborer avec les équipes en place. L'environnement technique : Ticketing, Windows 10/11, environnement Google, environnement Office, Smartphone Android Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI ou en en CDD sur une durée de 6 mois (possibilité de passage en CDI) Localisation : sur site client à Toulouse Package rémunération & avantages : • Le salaire : rémunération annuelle brute selon profil et compétences • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE. Référence de l'offre : ts1aug0nl2
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Tech Lead Data & Viz - Oxygen
emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake
3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
Offre d'emploi
Chef de projet technique réseaux et sécurité H/F
TIBCO
Publiée le
1 mois
Tremblay-en-France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Le projet NAC & Network segmentation a démarré en 2021 à la suite de plusieurs audits de sécurité appuyant la nécessité de segmenter le réseau AFKL afin de se prémunir des mouvements latéraux et ainsi réduire la surface d’attaque. Il s’agit d’un projet groupe AFKL prenant en compte plusieurs scopes des réseaux de collectes : * Réseau LAN Campus France * Réseau LAN Campus Amsterdam * Réseau WAN - incluant les sites distants, appelés les Branch offices - à l'étranger * Les accès distants et/ou BYOD La stratégie d’Air France KLM se repose sur l’architecture Zero Trust et Least Priviledge Access. Objectifs et livrables A titre d’information, les principales activités (liste non exhaustive) à réaliser sont : * Mettre en place une gouvernance de suivi de projet * Mettre en place un reporting régulier : vers la product team du projet ainsi qu’aux managers et directeurs des services/départements concernés * Mettre en place des comités de pilotage * Etablir, mettre à jour le planning du projet et s’assurer de la cohérence des jalons * Suivi de l’avancement du projet et du budget associé * Gérer les risques et aléas de façon proactive. Alerter en cas de dérive et prendre les mesures nécessaires * Interactions avec les différents acteurs internes : 1. Equipes connectivité France et Amsterdam 1. Equipes de sécurité au sein du département des Télécoms et dans d’autres départements 1. Architectes techniques et de domaines 1. CISO AFKL (Chief Information Security Office) 1. Interactions avec les acteurs externes à savoir les fournisseurs de services LAN managé * Prioriser les jalons et les livrables ainsi qu’anticiper les demandes de contributions auprès des équipes concernés (Dans le cadre d’une organisation Agile) * Documenter tout process ou information technique liée au projet en s’appuyant sur les architectes et experts
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
PROPULSE IT
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Mission freelance
Consultant data tracking & analytics
SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript
6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Mission freelance
Ingénieur Systèmes et Réseaux - Angers
EMGS GROUP
Publiée le
Active Directory
Office 365
6 mois
400-420 €
Angers, Pays de la Loire
Dans le cadre d’un projet de transformation IT, nous recherchons un Ingénieur Systèmes & Réseaux spécialisé en Active Directory (environnements on-premise et hybrides). La mission s’inscrit dans une approche orientée build, avec un rôle clé dans l’accompagnement et la mise en œuvre d’un projet de migration sur la durée. Missions principales Concevoir, déployer et faire évoluer les infrastructures Active Directory Participer activement aux projets de migration et de transformation Collaborer avec les différentes équipes techniques Rédiger et maintenir la documentation technique Assurer une veille technologique continue
Mission freelance
Expert / Lead tech IA & Data
CAT-AMANIA
Publiée le
Agent IA
Azure Data Factory
VBA
3 ans
Lyon, Auvergne-Rhône-Alpes
- S’approprier l’écosystème CDOC, comprendre les risques et les enjeux liés à la refonte de CDOC - Comprendre la trajectoire cible de CDOC (exposition applicative IA, APIs, découplage) - Recenser et qualifier les cas d’usage IA autour des documents CDOC en collaboration avec les parties prenantes - Identifier et comprendre les mises en œuvre existant de l’IA - Travailler dans le respect des process et méthode de travail de CATS (performance, coût et qualité IA, sécurité et gouvernance) - Travailler avec les architectes CATS et CAGIP pour définir l’architecture cible - Animer les ateliers de cadrage techniques IA - Documenter l’ensemble des choix et arbitrages techniques Document de cadrage de l'architecture cible, définissant les choix techniques (chunking, embedding, vectorisation), la gouvernance, la sécurité et le cycle de vie documentaire, afin de garantir une solution cohérente, maîtrisée et industrialisable, prête à être mise en œuvre. sécurisé et partagé permettant d’exposer les documents CDOC aux usages d’Intelligence Artificielle.
Offre premium
Offre d'emploi
Data Analyst Monétique
Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5186 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois