L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 105 résultats.
Mission freelance
Architecte Infrastructures Réseau (SD-WAN) H/F
SPIE ICS
Publiée le
Administration réseaux
Architecture
6 mois
400-550 €
Lorient, Bretagne
Nous recherchons pour notre client un Architecte Infrastructures Réseau (expert en SD-WAN) pour rejoindre les équipes de notre client, dans un secteur stratégique de la défense. Votre mission principale sera de concevoir et d’architecturer des infrastructures réseau modernes et sécurisées, en tirant parti des technologies SD-WAN. Ce rôle vous placera au cœur de la transformation des réseaux, en garantissant des communications optimisées, fiables et sécurisées entre les différents sites de l’organisation. Lieux : Lorient ou Rennes Missions principales : Conception et architecture SD-WAN : Définir des architectures réseau innovantes basées sur le SD-WAN, permettant une gestion centralisée, flexible et sécurisée des connexions multi-sites. Accompagnement métier : Traduire les besoins fonctionnels et techniques en exigences précises pour garantir la performance et la sécurité des réseaux. Définition et maintien des standards : Élaborer et maintenir les standards et bonnes pratiques d’architecture réseau, en conformité avec les exigences réglementaires et de sécurité (ANSSI, systèmes classifiés). Animation transverse : Organiser et animer des ateliers avec les équipes sécurité, ingénierie, intégration, exploitation, ainsi qu’avec les partenaires externes et autorités compétentes. Documentation rigoureuse : Produire une documentation claire et complète, couvrant les architectures, standards, et exigences techniques, validée selon les normes de sûreté défense. Gestion des incidents complexes : Apporter votre expertise dans la résolution des problèmes réseau nécessitant une connaissance approfondie de l’architecture. Validation technique : Contrôler et valider les travaux réalisés par les ingénieurs architectures.
Offre d'emploi
Technicien support VIP - H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-35k €
Paris, France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Ile De France accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Vous allez devoir assurer le support technique de proximité auprès des utilisateurs pour garantir la continuité de service, diagnostiquer et résoudre les incidents matériels et logiciels dans le respect des procédures, maintenir la qualité des interventions et la traçabilité dans les outils ITSM, contribuer à la mise à jour des configurations dans la CMDB après chaque intervention, participer à l'amélioration des processus et des outils en remontant les anomalies et en proposant des solutions, assurer un support prioritaire et premium aux utilisateurs VIP, garantissant réactivité, confidentialité et excellence opérationnelle. Vos responsabilités : • Assurer une prise en charge prioritaire des demandes et incidents concernant les utilisateurs VIP • Intervenir avec une communication adaptée, claire, proactive et sécurisée • Garantir un diagnostic rapide afin de limiter tout impact sur l'activité des VIP • Assurer une confidentialité stricte lors du traitement de leurs données, demandes ou contextes d'intervention • Anticiper les besoins particuliers des VIP (réunions importantes, déplacements, événements sensibles) • Suivre et superviser la résolution des tickets VIP, même lorsqu'ils sont traités par d'autres équipes • Fournir un reporting précis des incidents VIP au Référent (tendances, récurrences, risques) • Assurer une qualité de service exemplaire, conforme aux attentes du support premium • Contribuer à améliorer les procédures, les outils et les méthodes de travail en effectuant des propositions sur son périmètre • Se tenir informé de la mise à jour des procédures et modes opératoire Cette liste est non exhaustive, d'autres missions peuvent vous être proposées. Contrat : en CDI Localisation : après 6 mois de formation dans les locaux du client à Bruyères‑le‑Châtel, la prestation aura lieu ensuite à Paris (75015). Autre : pas de télétravail possible Référence de l'offre : loyplabk4d
Offre d'emploi
Ingénieur système - IHM et systèmes - Aéronautique H/F
VIVERIS
Publiée le
45k-50k €
Massy, Île-de-France
Contexte de la mission : Pour le compte d'un équipementier majeur du secteur aéronautique, intervenant sur des programmes d'envergure en aviation civile et militaire, Viveris recherche un Ingénieur Système H/F. Intégré au sein d'une équipe projet pluridisciplinaire, vous jouerez un rôle pivot dans la définition fonctionnelle de systèmes complexes, de la capture du besoin jusqu'à la validation finale. Vos Responsabilités : - Analyse des besoins opérationnels ; - Définition de l'architecture fonctionnelle des interfaces homme machine (logique d'enchaînement, ergonomie) ; - Collaboration étroite avec les équipes de design et de développement ; - Rédaction et mise à jour de la documentation système (spécifications techniques, ICD) ; - Structuration des exigences et maintien de la cohérence technique sur l'ensemble du cycle de vie ; - Gestion de la traçabilité complète (besoins, architecture, vérification) au sein des référentiels aéronautiques.
Offre d'emploi
Expert Data Snowflake / Azure (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Business/Data Analyst - Full Remote
VISIAN
Publiée le
Business Analyst
Data analysis
ETL (Extract-transform-load)
3 ans
350-400 €
France
Dans le cadre du lancement d’un projet interne stratégique à dimension internationale, un grand groupe recherche un Business Analyst / Data Analyst pour accompagner la mise en place d’un outil de pilotage commercial centralisé, orienté data. Le projet vise à fournir aux équipes Sales et Sales Ops une vision consolidée, fiable et exploitable de la performance commerciale. Le rôle est clé et transverse , au cœur des échanges entre les équipes métiers, data et IT. Missions Recueillir, analyser et formaliser les besoins des équipes Sales / Sales Ops (KPIs, reporting, cas d’usage). Analyser les sources de données existantes (dont CRM) et comprendre le modèle de données actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion (Bronze / Silver / Gold) et Canonical / Shared Data Model . Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout. Rédiger la documentation fonctionnelle et le dictionnaire de données. Jouer le rôle de référent data au sein de l’équipe projet (arbitrage fonctionnel, réponses aux questions). Accompagner les utilisateurs (présentation des KPIs, démonstrations, recueil de feedbacks). Contribuer à une démarche d’amélioration continue. Livrables attendus Modèle de données documenté (Medallion / Canonical). Spécifications fonctionnelles des pipelines de données. Règles de transformation et de qualité de données. Documentation data (dictionnaire, lineage, historisation). Vues analytiques et indicateurs métier. Supports de restitution et d’accompagnement utilisateurs. Environnement technique Architecture data de type Medallion Outils ETL / orchestration (exemples) : Fabric Pipeline dbt Alteryx Airflow Logic Apps / Power Automate Environnement CRM et données commerciales Outils BI / analytics (selon stack en place)
Offre d'emploi
Architecte SIG F/H
COEXYA
Publiée le
45k-55k €
Paris, Île-de-France
Poste : Architecte SIG F/H Contrat : CDI Lieu : Coexya Paris Salaire : 46/52KEUR CONTEXTE Pour accompagner la croissance de notre entité spécialisée en systèmes d'informations géographiques, nous recherchons notre futur Architecte SIG expérimenté F/H. Fort de plus de vingt-cinq ans d'expérience, l'entité systèmes d'informations géographique de Coexya fait partie d'une des premières de France. Vous interviendrez au coeur d'un véritable acteur numérique qui agit au service du territoire et des citoyens dans divers domaines : urbanisme, eaux, énergie, mobilité, open data, écologie, sécurité, etc.Vous avez à coeur de participer à l'élaboration des projets utiles et diversifiés Vous souhaitez évoluer dans une ambiance de partage et de cohésion CE QUE L'ON VOUS PROPOSE Dans le cadre de projets SIG d'envergure pour nos clients grand compte, nous souhaitons renforcer l'équipe en place par le recrutement d'un Architecte SIG / Référent technique SIG F/H qui réalisera des missions d'appui aux chefs de projet. Dans ce cadre, il sera en charge de : - Analyser l'existant : comprendre les besoins métiers et IT pour concevoir une architecture sachant répondre totalement aux attentes de chaque projet, sur des environnements Linux et Windows on-premise ou Cloud ; - Définir et proposer des architectures technique et la conception de systèmes et développements spécifiques, savoir présenter et argumenter les alternatives possibles pour les clients ; - Auditer et challenger les solutions techniques, les infrastructures mises en place ; - Accompagner les projets : contribuer aux spécifications techniques, aux DAT/Documents d'installation/exploitation, à la stratégie et au plan d'intégration, le déploiement métier, technique et logiciel, à l'accompagnement des équipes pendant le développement ; - Appui aux équipes commerciales : participation aux avant-ventes, démonstrations, réponses aux appels d'offres ; - Conseiller sur les technologies SIG - D'effectuer le reporting nécessaire au chef de projet, directeur de projets, directeur technique SIG.
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Offre d'emploi
Tech lead Scientist
Hexateam
Publiée le
AWS Cloud
Machine Learning
Pandas
1 an
Paris, France
Missions principales Encadrer et accompagner les Data Scientists du pôle IA Concevoir, développer et optimiser des modèles de Data Science, Machine Learning et Deep Learning Participer à la mise en place d’algorithmes créateurs de valeur à partir des données de l’entreprise Développer des scénarios prédictifs Améliorer les modèles NLP utilisés pour la compréhension des messages utilisateurs Réaliser le nettoyage, la structuration et l’enrichissement des données et des intentions Mettre en œuvre des modèles de classification de type BERT ou équivalent Travailler sur des approches de word embeddings Mesurer et analyser les performances théoriques et réelles des modèles développés Intégrer les contraintes réglementaires et les exigences de conformité dans les propositions de valeur Contribuer à la veille technologique et à l’innovation sur les sujets IA Compétences attendues Très bonne maîtrise des concepts de statistique, machine learning et deep learning Solide expérience dans la mise en œuvre de modèles de Data Science performants et industrialisables Bonne compréhension des enjeux stratégiques et métiers Capacité d’analyse, de synthèse, d’autonomie et forte force de proposition Maîtrise de Python, Pandas, Hugging Face, PyTorch et Git Connaissance des techniques de réduction de dimension telles que t-SNE ou UMAP Connaissance des environnements AWS , notamment SageMaker Sensibilité forte aux sujets d’innovation, de qualité et de performance des modèles Livrables attendus Scénarios prédictifs Modèles NLP optimisés pour la compréhension des messages utilisateurs Modèles de classification entraînés et évalués Analyses de performances et recommandations d’amélioration Solutions conformes aux exigences techniques, métier et réglementaires
Mission freelance
Technicien Réseaux-Télécoms H/F
HAYS France
Publiée le
Maintien en condition opérationnelle (MCO)
Open Shortest Path First (OSPF)
Palo Alto
4 mois
Villeneuve-d'Ascq, Hauts-de-France
Notre client, grand groupe international de la distribution, renforce son équipe IT afin d’assurer la disponibilité et la sécurité de son infrastructure réseau sur l’ensemble de ses sites et datacenters. Il recherche un Technicien Réseaux Télécoms pour : Missions principales Assurer le bon fonctionnement et la disponibilité des réseaux WAN, LAN et WLAN (Meraki, Huawei, Cisco) Participer à la maintenance préventive et corrective, mises à jour et patch management Déployer les nouveaux projets techniques et métiers Gérer les incidents de niveaux 1 et 2 et contribuer à leur résolution Collaborer à l’analyse des incidents complexes et à l’amélioration continue Rédiger et mettre à jour la documentation technique et les supports opérationnels
Offre d'emploi
Ingénieur IVV essais systèmes - Ferroviaire H/F
VIVERIS
Publiée le
45k-50k €
Massy, Île-de-France
Contexte : Dans le cadre du déploiement du nouveau matériel roulant MF19 sur la Ligne 13, notre client est en charge du portage d'un système propriétaire critique. Ce projet d'envergure couvre l'intégralité du cycle de vie, de la conception à la mise en service opérationnelle. Lancé début 2023, le programme entre aujourd'hui dans une phase majeure d'intégration et de validation sur site.Nous recherchons un ingénieur H/F de terrain pour assurer la réussite des essais sur train et la qualification du système intégré. Vos Responsabilités : - Préparer les procédures d'essais et configurer les outils de mesure et de paramétrage, - Réaliser les tests d'intégration et de validation directement sur les rames, que ce soit en base d'essais ou en conditions d'exploitation réelle sur la ligne 13, - Analyser les données recueillies et rédiger les rapports d'essais pour valider la conformité du système, - Contribuer aux campagnes de tests d'intégration, de vérification et de validation, en laboratoire sur équipements réels et simulateurs, - Assurer le lien technique entre les phases de validation en plateforme et le déploiement des campagnes d'essais sur site.
Offre d'emploi
Data ingénieur
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Nosql
6 mois
Luxembourg
Dans le cadre de la création de l’équipe data, nous recherchons un(e) Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Profil recherché Formation en informatique, data ou équivalent Expérience confirmée en tant que Data Engineer / DBA orienté data Solide compréhension de la gestion et de l’organisation des données Capacité à travailler en toute autonomie , tout en sachant évoluer efficacement dans un environnement transverse et collaboratif À l’aise dans des environnements techniques complexes Autonome, rigoureux(se), avec un bon esprit d’analyse Anglais professionnel obligatoire Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Mission freelance
Ingénieur Systèmes - Infrastructures F/H
berix
Publiée le
Administration Windows
1 an
350-450 €
Strasbourg, Grand Est
Administration & Exploitation • Gestion complète d’un portefeuille d’infrastructures clients (serveurs, réseau, sécurité, Microsoft365) • Installation, configuration de serveurs, OS et services associés • Administration des environnements Windows / AD / Virtualisation • Gestion des tenants Microsoft365 (utilisateurs, sécurité, conformité) • Supervision, maintien en condition opérationnelle et optimisation des environnements • Interventions en production en autonomie Sécurité des SI • Administration des pare-feu et VPN • Gestion des solutions antivirus / EDR • Mise en œuvre de politiques de sauvegarde et PRA • Durcissement des environnements et sécurisation Microsoft365 • Participation au traitement des incidents de sécurité Projets & Évolution • Pilotage technique de projets d’évolution et de modernisation d’infrastructures • Refonte d’architectures réseau • Déploiement de solutions matérielles (firewall, sauvegarde, PC) • Conseil et préconisation auprès des clients Support & Assistance technique • Assurer le support technique du niveau 1 à 3 • Interlocuteur technique privilégié des clients • Diagnostic et résolution d’incidents complexes • Capacité à vulgariser et orienter les choix techniques • Collaborer avec les équipes internes et les interlocuteurs techniques côté client Structuration & Transition • Mise à jour et formalisation du parc et des architectures clients • Production et mise à jour d’une documentation complète et exploitable dans une logique de transmission • Participation aux échanges techniques avec le futur repreneur • Organisation et transfert des connaissances • Garantie de continuité de service
Mission freelance
[SCH] Lead Tech DataOps / Release & Run Data - 1294
ISUPPLIER
Publiée le
10 mois
400-454 €
Niort, Nouvelle-Aquitaine
Contexte : -Le Data Office pilote la stratégie data et l’homogénéité/performance de l’écosystème. -L’équipe Data OPS (Service Delivery Data) standardise les pratiques d’exploitation, le déploiement continu (GitLab Cloud & On-Prem) et l’industrialisation des usages Data. Mission : -Piloter l’exploitation et la stabilité/disponibilité des environnements (dev/test/prod + déploiement continu). -Assurer la gestion des versions (composants, configurations) en lien avec conception et release managers. -Mettre en place/maintenir la supervision & diagnostic (dépendances, observabilité, documentation/auto-doc). -Gérer les incidents : RCA, plans de remédiation, suivi actions. -Garantir la qualité de mise en production (tests, doc, conformité) + identification des risques. -Définir, suivre et faire appliquer les ENF (sécurité, perf, scalabilité, dispo). -Assurer la traçabilité des changements (config/versions). -Automatiser les déploiements et maintenir les pipelines CI/CD. Profil attendu : -Lead technique DataOps capable de faire le lien RUN / Release / DevOps sur un écosystème data. -Autonome sur la stabilité prod, la supervision, le diagnostic et la gestion d’incidents (RCA). -Capable de structurer la gestion de versions/configurations et la traçabilité (release/change). -Solide en CI/CD GitLab (cloud & on-prem) + industrialisation des déploiements (OpenShift). -À l’aise pour cadrer et suivre des ENF et sécuriser les mises en production. -Leadership, communication, sens du service, force de proposition.
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6105 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois