L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 011 résultats.
Mission freelance
Business analyst Prévoyance
YGL consulting
Publiée le
Business Analyst
6 mois
400-550 €
Île-de-France, France
Un de nos clients grand compte recherche un business analyst expert en prévoyance, avec une forte composante autour de la DSN et des actes de gestion pour compléter ses équipes. En tant que Business Analyst, le consultant sera amené à intervenir sur l’ensemble du cycle projet : • Recueil et analyse des besoins métiers auprès des équipes (gestion, production, etc.) • Analyse des processus existants et identification des axes d’amélioration • Rédaction des spécifications fonctionnelles détaillées (SFD) • Participation à la conception fonctionnelle des solutions • Coordination avec les équipes IT et les parties prenantes • Suivi des développements • Élaboration de la stratégie de tests • Réalisation et/ou pilotage des phases de tests et de recette • Accompagnement des utilisateurs si nécessaire Le Business Analyst interviendra sur des projets d’évolution et/ou de transformation du SI prévoyance, notamment sur : • L’intégration et l’exploitation des flux DSN • L’amélioration et la formalisation des actes de gestion • Optimisation des processus métiers et des outils associés
Offre d'emploi
Data Scientist - (H/F)
DAVRICOURT
Publiée le
40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Mission freelance
Consultant data tracking & analytics
SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript
6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Offre d'emploi
Consultant BI / Data ingénieur confirmé H/F
CONSORT GROUP
Publiée le
Ansible
Jenkins
PL/SQL
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant BI / Data ingénieur confirmé H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data, la BI et les architectures décisionnelles modernes ? Ce poste est fait pour vous. En tant que Consultant BI / Data Engineer confirmé, vous êtes responsable de la conception, de l’évolution et du maintien en conditions opérationnelles de notre écosystème décisionnel. Analyser les besoins fonctionnels et techniques des métiers Localiser et qualifier les données nécessaires Concevoir, modéliser et enrichir les datawarehouses et datamarts Développer les processus d’intégration de données (ETL / pipelines Big Data) Traiter et nettoyer les données, garantir leur qualité Participer à la migration vers le cloud, ( Databricks ) Développer et optimiser des traitements Spark Produire des rapports et tableaux de bord lisibles pour les métiers Accompagner et former les utilisateurs dans l’exploitation des données et des rapports Tester, documenter, déployer et maintenir les livrables en conditions opérationnelles Participer aux revues de code et à l’amélioration continue de l’architecture décisionnelle C’est votre parcours Minimum 5 ans d’expérience sur des fonctions BI / Data Engineer / Ingénieur Décisionnel Très bonne maîtrise de SQL Solide expérience en modélisation d’entrepôts de données (DWH, datamarts) Compétences avérées en traitement et nettoyage de données Maîtrise de Spark indispensable Expérience en accompagnement métier : ateliers, recueil de besoins, formation, support Bon niveau de développement (Spark, SQL, idéalement Python et/ou Java en plus) C’est votre expertise : Big Data : Spark (essentiel), Hive, Indexima Cloud / Data Platform : Databricks (fort enjeu de migration) Stockage : Oracle, CEPH S3 (parquet) Langages : SQL, Python, PL/SQL, Shell, Java (plus apprécié mais pas obligatoire) ETL : Informatica Dataviz : Tableau Server CI/CD & outillage : Git, Jenkins, Ansible, Terraform Ordonnancement : Control-M Méthodologie : environnement agile C’est votre manière de faire équipe : Autonomie, rigueur, sens de la qualité Esprit d’équipe, bonnes capacités de communication Curiosité, envie de comprendre le métier et les usages data Capacité d’analyse et de synthèse Force de proposition sur les solutions techniques et décisionnelles C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybrid Salaire : De 44000 € à 49000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
SQL
3 ans
550-580 €
Paris, France
Vous intégrerez l’équipe du Data Office au sein de la DSI Groupe. Dans le cadre de la mise en marche de notre feuille de route Data à horizon 2030, nous recherchons un(e) consultant Data gouvernance. Vous serez en charge de créer et animer Une communauté data dynamique, valoriser et partager les connaissances autour de la data, tout en pilotant la stratégie et le développement de la Data Platform (plateforme technique) pour répondre aux enjeux métiers et stratégiques du groupe. Missions principales : 1. Structurer et animer la communauté data - Définir un plan de communication, favoriser les échanges, organiser des webinaires et des ateliers de sensibilisation. - Recenser et valoriser les initiatives data des filiales dans une démarche collaborative. 2. Développer la plateforme de knowledge management - Concevoir, produire et assurer la mise à jour d’une plateforme de documentation et d’échange sur la data. - Produire supports, guides, fiches techniques pour faciliter l’alimentation et l’utilisation de la plateforme. 3. Accompagner l’acculturation et la montée en compétences - Création et déploiement d’un parcours de formation data. - Piloter le déploiement de l'autodiagnostique de maturité Data. - Produire des supports d’acculturation pour sensibiliser le CoDir et les équipes. 4. Piloter la Data Platform en tant que Product Owner - Recueillir les besoins métiers, construire la roadmap et prioriser les évolutions. - Collaborer avec les équipes techniques pour la réalisation et l’implémentation des fonctionnalités. - Veiller à l’adoption et à l’usage opérationnel de la plateforme technique.
Offre d'emploi
Business Analyst Editique (H/F)
OBJECTWARE
Publiée le
Comité de pilotage (COPIL)
Rédaction des spécifications fonctionnelles
3 ans
46k-55k €
400-450 €
Bordeaux, Nouvelle-Aquitaine
Objectifs et contexte de la mission, liste des taches attendues et livrables: Nous recherchons un BA expérimenté, spécialisé en EDITIQUE , maitrisant les processus Agile Profil recherché : nous recherchons un Business Analyst expérimenté, disposant d'une expertise confirmée en éditique, d’une excellente maîtrise du cadrage fonctionnel et d’une solide expérience des méthodes Agile / SAFe. Compétence incontournable : Très forte expérience dans le domaine de l’éditique (obligatoire) Gestion documentaire, industrialisation de la production, flux entrants/sortants, pilotage de chaînes éditiques. Compétences métier attendues : Expertise fonctionnelle : Expert du cadrage fonctionnel et de la coordination métier/SI avec une solide maitrise de la gestion de projet dans le domaine Editique Référent sur la transformation digitale Connaissance des processus documentaires Gestion de flux en entrées et sorties Gestion de projet : Expérience : 11 ans minimum en Business Analysis , dont une part significative sur des projets éditiques. Rédaction de cadrages, devis, études d’impact, dossiers d’opportunité. Rédaction des spécifications fonctionnelles détaillées. Pilotage ou contribution aux stratégies de test et aux recettes projets. Gestion de projet de bout en bout : Coordination des équipes, Comités de pilotage et de suivi, Mise en production, Suivi post-MEP. Suivi financier : budget, consommés, projections.
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Tech Lead Data (H/F)
Octopus Group
Publiée le
Google Cloud Platform (GCP)
12 ans
500-610 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme data cloud et de la modernisation de l’écosystème analytique, nous recherchons un(e) Tech Lead Data capable de piloter les choix techniques, encadrer les développements et accompagner les équipes sur des architectures data cloud-native à grande échelle. Missions principales Concevoir et faire évoluer l’architecture data sur GCP Encadrer techniquement les équipes Data Engineering Définir les bonnes pratiques de développement et d’industrialisation Participer aux choix d’architecture et aux décisions techniques stratégiques Développer et maintenir des pipelines de données robustes et scalables Mettre en place les standards CI/CD et Infrastructure as Code Superviser les workflows d’orchestration et les traitements batch/streaming Garantir la qualité, la sécurité et la gouvernance des données Collaborer avec les équipes métier, analytics, BI et cloud platform Accompagner les équipes sur les sujets de performance, monitoring et optimisation des coûts cloud Environnement technique GCP (BigQuery, Cloud Run, Pub/Sub, Cloud Build, Artifact Registry) Terraform Python SQL Airflow Git / CI/CD Docker Architecture cloud-native APIs & microservices Data pipelines / ELT Compétences appréciées Streaming temps réel Data Governance Observabilité & monitoring FinOps / optimisation cloud Sécurité des données Méthodologies Agile / Scrum
Mission freelance
Architecte Sécurité Cloud & Données (H/F)
HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM
6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Mission freelance
Data Scientist Expert (H/F)
Freelance.com
Publiée le
Gitlab
Machine Learning
Matplotlib
3 mois
400-570 €
Versailles, Île-de-France
Dans le cadre de nouveaux projets industriels à fort enjeu, une grande entreprise du secteur industriel et défense recherche un Data Scientist expert afin d’exploiter des données issues de capteurs et systèmes industriels (HUMS et données de pannes). La mission vise à développer des modèles de maintenance prédictive et à réaliser des analyses avancées de fiabilité et de durée de vie des systèmes. Missions principales Collecter, nettoyer et structurer des données industrielles complexes (HUMS, pannes, capteurs) Explorer et analyser les données afin d’identifier des corrélations entre usage et défaillances Développer des modèles de maintenance prédictive Réaliser des analyses statistiques avancées et de survivance Mettre en œuvre des modèles de fiabilité (Kaplan-Meier, Weibull) Interpréter les résultats et produire des recommandations exploitables Documenter les modèles, processus et résultats Restituer les analyses sous forme de livrables clairs et exploitables Livrables attendus État des lieux et structuration des données industrielles Analyse des corrélations entre usage et pannes Étude de survivance des systèmes Documentation des modèles et méthodologies utilisées Synthèse des résultats pour les équipes métiers Informations clés Localisation : Versailles-Satory (Île-de-France) Démarrage : mi-juin 2026 Durée : prestation forfaitaire avec suivi par lots Temps plein Forte présence sur site dans un environnement sécurisé
Offre d'emploi
Business Analyst / Maîtrise d’Ouvrage – Sophis Equity
OMICRONE
Publiée le
Business Analyst
Finance
Sophis
1 an
Paris, France
Dans le cadre d’un nouveau projet au sein d’un environnement Front Office / Capital Markets, nous recherchons un profil BA / MOA disposant d’une bonne connaissance de Sophis sur le périmètre Equity. Vos missions • Recueillir et analyser les besoins métiers • Assurer le lien entre les équipes métier et IT • Participer à la rédaction des spécifications fonctionnelles • Accompagner les évolutions et projets autour de la plateforme Sophis • Participer aux phases de recette et validation fonctionnelle • Suivre les incidents, évolutions et demandes métiers • Contribuer à l’amélioration continue des processus et outils
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Analyste SOC
ALLEGIS GROUP
Publiée le
CyberSoc
QRadar
Splunk
3 ans
390-470 €
Olivet, Centre-Val de Loire
Contexte du poste Au sein de l’équipe Cyber SOC (Security Operations Center) , orientée vers la sécurité opérationnelle , vous intervenez comme Analyste SOC afin de contribuer à la protection des systèmes d’information critiques de nos clients. Vous évoluez dans un environnement technique exigeant, en collaboration étroite avec des analystes expérimentés et des experts cybersécurité. Missions principales Supervision et analyse de la sécurité Analyser et interpréter les alertes de sécurité issues du centre de supervision Qualifier et prioriser les alertes remontées par le SIEM Analyser les flux réseaux et événements de sécurité Participer à la mise en place et à l’optimisation de règles de corrélation pour améliorer la détection des menaces Gestion des incidents de sécurité Assurer le traitement des incidents de sécurité (détection, qualification, escalade) Participer aux réponses à incidents en collaboration avec les analystes SOC expérimentés Contribuer à l’amélioration continue des processus de gestion d’incidents Veille et amélioration continue Assurer une veille active sur les menaces , techniques d’attaque et TTPs (MITRE ATT&CK) Réaliser une veille technologique sur les solutions de sécurité : SIEM, EDR, Sysmon, Sandbox, Threat Intelligence, outils de détection d’intrusion Participer aux workshops internes : retours d’expérience (RETEX), démonstrations, benchmarks, tests de solutions Reporting et documentation Participer à la rédaction des rapports de suivi d’activités et d’incidents pour les clients Contribuer à l’animation des comités opérationnels clients , en binôme avec les analystes confirmés Alimenter et maintenir le fond documentaire du service SOC
Mission freelance
Développeur BOARD (H/F)
Nicholson SAS
Publiée le
Azure
Board
Data Lake
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Offre d'emploi
Architecte Data (H/F) - CDI
GROUPE ARTEMYS
Publiée le
76000, Rouen, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons un Consultant Senior Data Architecture / Data Engineering H/F en Freelance pour intervenir auprès de l’un de nos clients basé au Le Havre. Dans le cadre de cette mission, vous interviendrez sur des sujets d’audit, de transformation et d’urbanisation des plateformes data existantes avec une forte dimension architecture et accompagnement des équipes. Votre mission (si vous l’acceptez) : Phase 1 – Audit & Architecture Réalisation d’un audit des environnements data et des chaînes de traitement existantes Analyse de l’architecture globale, des workflows, des flux de données et des usages Identification des points de friction, limites techniques et axes d’optimisation Évaluation des choix d’architecture et des pratiques de data engineering en place Formalisation de recommandations structurées et actionnables sur les architectures cibles, les workflows et les bonnes pratiques Phase 2 – Accompagnement & Transformation Accompagnement à la refonte des architectures data et des workflows de traitement Participation à la mise en œuvre des préconisations techniques et organisationnelles Contribution à l’évolution des standards de conception et d’exploitation des flux de données Accompagnement des équipes internes dans la montée en compétences et l’adoption des bonnes pratiques Clarification des usages et des responsabilités entre architectures ETL, échanges API et flux temps réel Le profil que nous recherchons : Minimum 8 ans d’expérience en Data Engineering / Architecture Data Excellente capacité d’analyse avec une vision transverse des architectures et des flux Expérience significative sur plusieurs environnements et solutions de traitement de données Solide expertise en conception, transformation et optimisation d’architectures data Bonne maîtrise des bases de données relationnelles et NoSQL (type MySQL, Cassandra) Bonne compréhension des mécanismes d’intégration via API et des enjeux d’urbanisation des flux La connaissance de NiFi constitue un plus Capacité à intervenir dans une posture de conseil avec vision stratégique, pédagogie et force de proposition Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Enterprise Architect – Data Mesh
Signe +
Publiée le
Data Mesh
12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3011 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois