L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 131 résultats.
Offre d'emploi
Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) -Niort
Argain Consulting Innovation
Publiée le
Dataiku
DBT
Google Cloud Platform (GCP)
35k-46k €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) pour notre cabinet à Niort 🚀 En tant que Consultant(e) Data Expérimenté(e) – Expertise Dataiku , vous interviendrez afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data.
Offre d'emploi
Data Analyst Sénior Montpellier
Deodis
Publiée le
Data analysis
36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
Data Engineer (1j/ semaine à Toulouse)
Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL
1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Offre d'emploi
Administrateur Système Linux / Debian H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-50k €
Maisons-Laffitte, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Ile De France accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe de l'aéronautique défense nucléaire, sur un périmètre sécurisé nous recherchons un/e Administrateur Système Linux. L'un des objectifs de cette mission sera d'améliorer (simplifier / automatiser) l'exploitation, l'administration, la maintenance des systèmes ainsi que leur modernisation. Vos responsabilités : • Mise à jour ou création de documents d'architecture (technique, fonctionnelle et logique) ; • Remédiation sur des composants d'une infrastructure à haut niveau de disponibilité ; • Mise en place d'un environnement d'automatisation (type Ansible) ; • L'administration de systèmes LINUX (DEBIAN) ; • La rédaction de scripts bash, ou l'utilisation de langages de programmation ; • Paramétrage de logiciels ou services et création de scripts nécessaires au diagnostic d'incident ; • Vérification du bon fonctionnement suite à une mise à niveau d'un service d'infrastructure ; • Industrialisation d'actions sur la maintenance (MCO, MCS, tests de fonctionnement) ; • Rédaction de documents / procédures sur la maintenance / l'exploitation Contrat : en CDI Localisation : prestation de client grand compte à Maisons-Laffitte (78) Autre : pas de télétravail possible Référence de l'offre : 8yot5tjiw1
Offre premium
Offre d'emploi
Service Delivery Manager Infrastructures & Systèmes (RUN)
Lùkla
Publiée le
Data Center
Infrastructure
ITIL
1 an
Courbevoie, Île-de-France
Contexte : Intégré au domaine Application & Systèmes, vous accompagnez l’équipe RUN Application & Système dans un environnement critique : Data Centers, virtualisation, stockage et sauvegarde. Votre rôle : garantir la continuité et la performance des services IT. Missions : Piloter le RUN quotidien : incidents, problèmes, changements, escalades et gestion de crises. Superviser les opérations sur 2 Data Centers. Assurer le suivi des SLA et KPI, reporting client et comités de pilotage. Piloter les prestataires et contrats de services, suivi budgétaire. Valider les impacts techniques, suivre les remédiations sécurité et obsolescences. Compétences requises : Infrastructures et Data Centers, virtualisation VMware/Nutanix, stockage et sauvegarde. Environnements CITRIX. Culture ITIL solide (certification appréciée). Expérience en pilotage d’infogérance.
Mission freelance
DATA ANALYST
Geniem
Publiée le
Python
6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search& et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search& Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Mission freelance
Ingénieur infrastructure
Signe +
Publiée le
ITIL
Réseaux
Sécurité informatique
5 mois
400-500 €
Laval, Pays de la Loire
Bonjour, Nous recherchons pour l'un de nos clients un ingénieur sénior infrastructure. Responsabilités Principales • Être le point d’escalade technique pour les incidents critiques impactant les sites (Salles IT, entrepôts, magasins). • Apporter une expertise Technique niveau 3 / 4 sur les environnements et infrastructures distribués. • Définir et faire respecter les standards d’infrastructure déployés sur les sites. • Accompagner les équipes locales et prestataires terrain. • Concevoir et mettre en place des infrastructures robustes et Scalable • Définir des templates d’infrastructure site (réseaux, serveurs, Wi-Fi, sécurité). • Piloter l’industrialisation des déploiements (nouveaux sites, extensions, Plateformes etc ..). • Concevoir et maintenir les réseaux LAN / WAN / Wi-Fi multisites. • Gérer les interconnexions MPLS / SD-WAN / VPN entre sites et datacenters/cloud. • Assurer la priorisation des flux critiques (POS, data, voix, IoT etc …). • Garantir la redondance et la résilience des accès WAN. • Garantir la haute disponibilité des services critiques 24/7. • Implémenter et maintenir les DRP adaptés aux contraintes terrain. • Superviser le monitoring des infrastructures sites et datacenters. • Analyser les incidents récurrents et déployer des actions correctives durables. • Être lead technique sur les projets d’infrastructure
Offre d'emploi
DevOps streaming Data - (H/F)
SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps
1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Offre d'emploi
Data Domain Lead – Data Analytics & Transformation (H/F) Anglophone
Amontech
Publiée le
Data analysis
Gouvernance
Île-de-France, France
Dans le cadre d’un programme de transformation Data d’envergure internationale, pour un grand groupe du secteur des services à l’environnement , nous recherchons un Data Domain Lead pour intervenir sur des domaines data stratégiques, en lien étroit avec les équipes métiers et data. Missions En tant que Data Domain Lead, vous agissez comme référent data métier sur votre périmètre et pilotez les produits data de bout en bout : Recueil, analyse et cadrage des besoins métiers (corporate et Business Units) Définition de la vision produit data et de la roadmap associée Conception et pilotage de cas d’usage data analytics et reporting Mise en œuvre de data domains : pipelines de données, modélisation sémantique, datamarts et tableaux de bord Contribution à la gouvernance data et au respect des standards Accompagnement des métiers dans l’adoption des solutions data et la montée en maturité Interactions quotidiennes avec des interlocuteurs internationaux Environnement technique Data Analytics / BI (Power BI) Modélisation sémantique et datamarts SQL obligatoire (Python est un plus) Environnements data modernes (type MS Fabric ou équivalent) Gouvernance et standards data
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Mission freelance
Lead DevOps (H/F)
STHREE SAS pour HUXLEY
Publiée le
12 mois
France
Localisation: Paris (2 à 3 jours de télétravail par semaine) Conditions : Freelance ou portage (pas de sous-traitance) et ouvert au CDI Contexte Notre client est un acteur important dans le secteur du paiement. Pour leur département IT, composé d'environ dix personnes (architecte SI, développeurs, experts infra…) je recherche un Lead DevOps expérimenté pour renforcer leur équipe technique passionnée et exigeante. L'environnement est très "geek-friendly" : forte culture technique, volonté de tester, prototyper, documenter et maintenir un code propre. Vous travaillerez au quotidien avec des profils très techniques, dont un management particulièrement sensible aux bonnes pratiques DevOps. Le rôle inclut une grande rigueur, un sens du détail irréprochable, et la capacité à délivrer en autonomie dans un cadre structuré. Objectifs du poste Concevoir, développer et maintenir les plateformes Cloud (principalement GCP) destinées à héberger les solutions internes. Implémenter les meilleures pratiques en matière d'infrastructure, CI/CD, observabilité et sécurité. Optimiser l'usage du Cloud et contribuer à la maîtrise des coûts. Expertise & Leadership technique Être la référence interne sur les sujets GCP, Kubernetes et DevOps pour plusieurs entités. Accompagner et mentorer les membres de l'équipe sur l'ingénierie et les bonnes pratiques. Participer à la définition des architectures, standards techniques et process d'automatisation. Collaboration & Delivery Travailler au quotidien avec les équipes DevOps, AppOps, Développement, Data, IT et Sécurité. Contribuer à la mise en place de solutions robustes, scalables et sécurisées. Produire un reporting clair et synthétique (tickets, documentation, suivi). Stack technique recherchée Must-have Kubernetes (idéalement très solide) CI/CD & IaC : GitHub Actions, GitLab CI, ArgoCD, Terraform, Terragrunt, Ansible Infrastructure as Code : Terraform / Terragrunt Containers : Docker Monitoring : Grafana, Prometheus Langages : Python (gros plus), Shell, Go, Java Dev mindset : un background de développeur (et non purement infra) Databases & Data: PostgreSQL, MySQL, BigQuery, ElasticSearch Cloud & Infra : Linux, GCP (networking, storage, databases, IAM, security), Kubernetes, Cloud Run Monitoring & Ops : Datadog, Grafana, Prometheus, Atlassian Suite (Jira, Confluence, OpsGenie, StatusPage…) IT & Security : JumpCloud, Bitdefender, Bitwarden, Nordpass Anglais courant obligatoire (échanges quotidiens, ticketing en anglais) Nice-to-have GCP (idéalement), mais AWS est totalement acceptable Expérience dans des environnements fintech ou monétique (pas obligatoire) Intérêt fort pour les POCs, les tests, la R&D technique Profil recherché Expérience 10 ans d'expérience minimum en DevOps / SRE. 20 ans serait idéal (ancien senior/lead avec recul et maturité technique). Soft skills Ultra‑rigoureux , attaché au clean code et à la documentation. Très structuré : bullet points Jira, suivi, reporting. Capable de travailler avec des personnes très techniques, "geeks", exigeantes. Capacité à exécuter clairement une demande et rendre compte en fin de journée. À l'aise dans des environnements où l'on attend précision, discipline et respect des conventions techniques.
Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F
LeHibou
Publiée le
AI
AWS Cloud
Snowflake
3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Mission freelance
Consultant DATA/ BI
HAYS France
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI
5 mois
Obernai, Grand Est
Nous recherchons un Consultant Data / BI capable d’intervenir sur un environnement mêlant Enterprise Architecture , Azure Data Platform , et Power BI . L’objectif : adapter un écosystème LeanIX + Data Platform à une nouvelle organisation interne, tout en assurant la mise à jour des flux, du modèle de données et des rapports analytiques. Vos responsabilités Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : LeanIX Adapter la configuration LeanIX pour refléter la nouvelle organisation. Collaborer avec l’équipe Enterprise Architecture. Azure Data Platform Ajuster et optimiser les flux de données (Azure Data Factory). Adapter le modèle de données dans Azure Synapse Dedicated SQL Pool . Maintenir et faire évoluer une Azure Function en Python . Participer à des déploiements via Bicep . Power BI Mettre à jour les semantic models. Ajuster et optimiser les rapports existants. Documentation & collaboration Produire la documentation en anglais. Participer à une évaluation préliminaire d’ ARIS comme alternative potentielle.
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
25k-25 001 €
Limours, Île-de-France
Missions principales : En tant que technicien Support Utilisateurs vous auriez comme missions : • Assurer le support de proximité et le support utilisateurs sur les postes de travail (environnement bureautique et applicatif). • Installer, configurer et garantir le bon fonctionnement des équipements informatiques et téléphoniques liés au poste utilisateur. • Diagnostiquer et résoudre les incidents matériels, logiciels et de connectivité de premier niveau. • Prendre en charge les demandes et incidents via l'outil de ticketing et assurer leur suivi dans le respect des procédures. • Préparer, installer et déployer les postes de travail, périphériques et équipements associés. • Réaliser les opérations de remplacement, renouvellement et mise à jour de matériel informatique. • Assister les utilisateurs au quotidien et les accompagner dans l'utilisation de leurs outils informatiques. • Assurer les tests de bon fonctionnement après intervention et garantir la qualité de service. • Contribuer au suivi des demandes utilisateurs et au reporting d'activité. • Respecter les procédures de sécurité, de qualité et les standards du site client. Référence de l'offre : zbnjym9x0c
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7131 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois