Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 310 résultats.
Mission freelance
Expert en Modélisation de Données / Référentiels
Castelis
Publiée le
Master Data Management (MDM)
Modèle Conceptuel des Données (MCD)
Modèle Logique des Données (MLD)
6 mois
550-600 €
Guyancourt, Île-de-France
Dans le cadre d’une forte accélération de ses activités Data, notre client engage plusieurs projets structurants autour de la modélisation de données , de la construction de nouveaux référentiels et potentiellement de la mise en place d’une démarche MDM (Master Data Management). L’environnement comporte un volume significatif — plus de 250 millions de transactions financières — nécessitant une architecture robuste et une modélisation de données exemplaire. Le consultant interviendra en tant qu’ expert référent , au cœur des projets data stratégiques, en interaction directe avec les équipes Data, Architecture, Métiers et IT. 1. Modélisation de données Élaborer les modèles MCD/MLD/MPD selon les standards du client. Définir les entités, attributs, règles de gestion, relations et constraints d’intégrité. Documenter le glossaire , le data dictionary et le data lineage . 2. Construction des référentiels Définir les règles de gestion des données maîtres (golden records, survivorship, matching). Structurer les référentiels (clients, produits, fournisseurs, structures, etc. selon le périmètre). Identifier les sources, cibles et flux associés. 3. Appui à la stratégie Data / MDM Participer au cadrage et à la définition de la future architecture MDM (si retenue). Apporter un regard expert sur les principes de gouvernance associés. Collaborer avec les squads Data, IT et Métiers. 4. Interaction avec les équipes Faciliter les échanges techniques/fonctionnels entre Data Engineers, Architectes et Métiers. Être garant de la cohérence globale du modèle dans un environnement multisolutions. Accompagner la montée en compétence des équipes internes.
Offre d'emploi
SENIOR DATA SCIENTIST F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Docker
Bordeaux, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingénieur DATA
HAYS France
Publiée le
Python
SQL
6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Offre d'emploi
Proxy Product Manager
Ela Technology
Publiée le
JIRA
Trello
6 mois
40k-45k €
400-460 €
Auberville, Normandie
Rejoignez une équipe innovante et prenez part au déploiement mondial d’une solution digitale stratégique , utilisée par plus de 3000 utilisateurs dans 550 sites à travers le monde . En tant que Proxy Product Manager , vous jouerez un rôle clé entre les besoins métiers internationaux et les équipes de développement, pour maximiser la valeur d’un produit digital à fort impact opérationnel. Vous contribuez à l’évolution, à la performance et à l’adoption d’un produit digital majeur. Votre rôle s’articule autour de 4 axes principaux : 🚀 1. Stratégie & Backlog (BUILD) Collecte des besoins auprès des Key Users internationaux Priorisation du backlog en fonction de la valeur métier et du ROI Définition des User Journeys et transformation en Epics/fonctionnalités Suivi du développement via JIRA Coordination UI/UX via Trello Gestion des synergies avec les autres outils de l’écosystème digital 📊 2. Pilotage de la valeur & KPIs Suivi des KPIs d’usage et de performance Analyse des données d’utilisation pour améliorer continuellement le produit Communication régulière des résultats aux parties prenantes 🤝 3. Animation & rituels agiles Préparation/participation aux ComOp Animation des Revues de Sprint Coordination mensuelle avec les Key Users internationaux Suivi opérationnel via Smartsheet 🔐 4. Support, Cybersécurité & Documentation (RUN) Supervision des tickets Level 2 & 3 via ServiceNow Contribution aux remédiations cybersécurité Rédaction/mise à jour de la documentation technique et utilisateur Mise à jour régulière des release notes 🎓 5. Formation & Dashboarding Participation aux sessions de formation utilisateurs Mise en place de dashboards DataStudio avec le Data Engineer/Analyst 👥 Écosystème avec lequel vous collaborerez UX/UI Data Engineer / Analyst Product Sales & Communication Manager Product Owner Développeurs Experts métiers & Key Users internationaux Équipes cybersécurité, service management, data, communication
Offre d'emploi
Tech Lead Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
50k-60k €
Lyon, Auvergne-Rhône-Alpes
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Offre d'emploi
Tech Lead Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
PySpark
55k-70k €
Paris, France
En tant que Tech Lead, vous êtes l'expert Data Engineering et le référent technique dans vos missions. Vous intervenez principalement sur les problématiques d’ingestion, de traitement et d’industrialisation des données sur la data plateforme. Sans être responsable de l’architecture Data globale, vous avez un rôle clé dans la qualité des livrables, la standardisation des pratiques et la montée en compétence des Data Engineers. Expérience attendue : 7 à 12+ ans en Data Engineering avec une expérience dans un rôle de référent technique Vous correspondez au/à la Tech Lead que nous recherchons si : Vous disposez d’un leadership technique , reconnu et légitime auprès des équipes Vous savez animer, encadrer et fédérer une équipe autour de bonnes pratiques techniques et d’objectifs communs Vous faites preuve d’une excellente communication , associée à une forte capacité pédagogique Vous adoptez un esprit critique constructif et savez challenger les choix techniques dans une logique d’amélioration continue Vous êtes capable de prendre du recul sur des problématiques techniques afin de proposer des solutions pertinentes et durables Vous êtes autonome , proactif et doté d’un fort sens des responsabilités Vous favorisez le partage de connaissances et la montée en compétence collective Vous savez collaborer efficacement avec des rôles transverses (Architectes, Product Owners, DevOps, ML Engineers) Vous maîtrisez Python et SQL à un niveau avancé , avec une forte sensibilité aux bonnes pratiques de software engineering (qualité, maintenabilité, testabilité) Vous êtes capable de définir, documenter et faire appliquer des standards de développement , incluant la structuration des projets, les conventions de code et les stratégies de tests Vous avez une expérience significative dans la mise en place et la maintenance de chaînes CI/CD appliquées aux pipelines Data Vous portez une attention particulière à la qualité des données , à la testabilité et à l’ observabilité des pipelines en production Vous pratiquez régulièrement les revues de code , le mentoring et l’accompagnement technique des Data Engineers Vous êtes en mesure de concevoir des frameworks internes et des briques techniques réutilisables afin d’industrialiser et standardiser les développements Vous comprenez les enjeux de performance, de scalabilité et de maîtrise des coûts , et savez les intégrer dans vos choix techniques
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Mission freelance
Analyste Support BI & Cloud Solutions (N2)
Nicholson SAS
Publiée le
Azure Data Factory
Databricks
Gouvernance, gestion des risques et conformité (GRC)
10 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Secteur : Industrie / Excellence Opérationnelle Localisation : Clermont-Ferrand (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Visibilité : Jusqu’au 15/02/2027 Le Challenge Au cœur d'un environnement Cloud moderne, votre mission consiste à garantir la fiabilité, la performance et la disponibilité critique des services BI. Véritable pivot entre la technique et les besoins métiers, vous assurez un support de niveau 2 sur des solutions de reporting et de traitement de données à forte valeur ajoutée. Vos Responsabilités Maintien en Condition Opérationnelle : Analyse et résolution d'incidents complexes (logs, erreurs de traitement, gestion des permissions). Interface Technico-Fonctionnelle : Traduire des problématiques techniques complexes en impacts métiers clairs pour les parties prenantes. Transition & Qualité : Participer aux phases de mise en exploitation (SDM, SLA) et assurer le suivi rigoureux des indicateurs de performance. Amélioration Continue : Identifier proactivement les points de fragilité, remonter les alertes et proposer des optimisations sur l'existant (IA, automatisation). Astreintes : Participation ponctuelle au dispositif d'astreinte (environ 1 semaine par mois). Stack Technique & Expertise Data Core : Maîtrise avancée du SQL et de Python orienté Data. Ecosystème Azure : Azure Data Factory, Azure Databricks et principes de gouvernance Cloud. Restitution : Expertise fonctionnelle sur Power BI (incluant les concepts de sécurité RLS). Data Science : Notions de base en Machine Learning pour accompagner les évolutions analytiques. Langue : Anglais courant obligatoire (contexte international). Profil Recherché Vous justifiez d'une expérience de 4 ans minimum sur un rôle similaire, mêlant rigueur technique et sens du service. Esprit d’Analyse : Capacité à synthétiser des informations complexes et à prioriser les urgences. Agilité Relationnelle : Vous interagissez avec aisance avec des profils variés (DevOps, Data Engineers, Métiers, Support L3). Curiosité : Un intérêt marqué pour les nouvelles technologies et l'IA pour faire évoluer votre périmètre. Conditions de la prestation TJM : 400 € Soft Skills clés : Autonomie, proactivité et excellente communication écrite/orale.
Offre d'emploi
Data ingénieur H/F
CONSORT GROUP
Publiée le
40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO
12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Développeur Fullstack Senior Python Typescript(H/F)
HOXTON PARTNERS
Publiée le
TypeScript
6 mois
500-600 €
Paris, France
Dans le cadre d’un programme d’envergure, nous recherchons un Développeur Fullstack confirmé pour intervenir sur la conception, le développement et le maintien en condition opérationnelle de composants logiciels critiques. Le projet s’inscrit dans un contexte d’innovation, d’interopérabilité et de valorisation de données sensibles, à destination de médecins, chercheurs et équipes métiers, avec une forte orientation Open Source. Missions principales Le consultant interviendra sur l’ensemble du cycle de vie des applications, avec un haut niveau d’autonomie, et sera notamment en charge de : Concevoir et développer des composants Front-end et Back-end robustes et réutilisables Développer et exposer des API REST conformes aux standards d’interopérabilité (FHIR) Réaliser des interfaces utilisateurs en JavaScript / TypeScript (React) Assurer la maintenance évolutive et le maintien en condition opérationnelle des applicatifs Produire des spécifications techniques détaillées et de la documentation technique Mettre en œuvre les tests unitaires, fonctionnels et de non-régression Contribuer à la qualité logicielle (sécurité, performance, documentation) Collaborer avec des équipes pluridisciplinaires (designers, PM/PO, data engineers, chercheurs, médecins) Participer à des projets Open Source reconnus dans le domaine de la santé
Mission freelance
Data Product Manager / Data & BI (Senior)
Inventiv IT
Publiée le
Data analysis
Data modelling
ERP
6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
Mission freelance
Développeur open source H/F
Insitoo Freelances
Publiée le
C/C++
Python
2 ans
500-530 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur open source H/F à Paris, France. Contexte : Dans le cadre d’un projet innovant de transformation digitale, nous recherchons un Développeur IA Senior pour concevoir et déployer une solution intelligente dédiée au traitement automatisé de données issues de systèmes industriels . L’objectif : développer une nouvelle génération d’outils permettant d’exploiter efficacement des mesures terrain, détecter des anomalies et contribuer à des stratégies de maintenance prédictive . Vous interviendrez sur l’ensemble du cycle de développement d’une solution IA, avec notamment : Conception d’une architecture de traitement de données autonome Développement d’algorithmes permettant : L’identification automatique de signaux spécifiques dans des séries temporelles La détection d’anomalies et leur qualification Mise en place de pipelines de traitement de données intégrant des modèles d’IA Analyse et corrélation de données multiples pour identifier des signaux faibles Participation à la construction de datasets et à leur exploitation Définition et suivi des indicateurs de performance (KPI) Intégration dans un environnement Big Data Industrialisation de la solution (performance, scalabilité, maintenance) Rédaction de la documentation technique et suivi projet 🛠️ Environnement technique Langages : Python, C++ IA / Data : Machine Learning, traitement de signaux, analyse de données Architecture : pipelines data, edge computing, systèmes distribués Méthodologies : Agile 👤 Profil recherché Expérience confirmée en tant que développeur IA / data engineer senior Solide expérience en développement de solutions IA en environnement industriel Bonne maîtrise des problématiques de traitement de données complexes Capacité à intégrer des solutions dans un existant technique contraint Connaissances en : systèmes critiques cybersécurité optimisation des ressources ✅ Les + du poste Projet à fort impact technologique et opérationnel Environnement mêlant IA, industrie et innovation Participation à la mise en place d’une solution scalable et auto-apprenante
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Business Analyst Confirmé H/F
CONSORT GROUP
Publiée le
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Business Analyst Confirmé H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée et les enjeux liés à la santé ? Ce poste est fait pour vous. En tant que Business Analyst Data , vous êtes responsable de l’analyse et de la formalisation des besoins métiers autour des données cliniques au sein de notre écosystème Data : Côté build : Recueillir et analyser les besoins métiers liés aux données cliniques Animer des ateliers de cadrage avec les parties prenantes métiers et techniques Rédiger les spécifications fonctionnelles détaillées Contribuer à la structuration des plateformes Data Participer à la modélisation et à l’organisation des flux de données Assurer la cohérence des besoins avec les enjeux data et réglementaires Côté run : Assurer l’interface entre les équipes métiers, data et techniques Produire et maintenir une documentation fonctionnelle claire et à jour Suivre la bonne mise en œuvre des besoins exprimés Contribuer à la qualité, à la fiabilité et à la cohérence des données Participer à l’amélioration continue des processus Data Accompagner les utilisateurs dans la compréhension des solutions mises en place C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez faire le lien entre les métiers et la technique, structurer des problématiques complexes et exploiter la donnée sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnements Data (Data Platform, Data Warehouse, Data Lake) Connaissance des données cliniques et des enjeux réglementaires associés Outils de spécification et de documentation (Confluence, Jira…) Méthodologies Agile / Scrum Bonne compréhension des flux de données et de leur structuration Capacité à interagir avec des équipes techniques (Data Engineers, Data Analysts) C’est votre manière de faire équipe : Excellentes capacités de communication et de vulgarisation Esprit d’analyse et de synthèse Rigueur et sens de l’organisation Esprit collaboratif et sens du service Autonomie et proactivité Capacité à animer des ateliers et fédérer des interlocuteurs variés C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 43000 € à 48000 € (selon expérience) brut annuel Famille métier : Fonction transverse Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
310 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois