L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 337 résultats.
Mission freelance
Ingénieur Data Oracle/SQL/Python
CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python
12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Mission freelance
Directeur de projet IT Fonctionnel
Deodis
Publiée le
Agile Scrum
Dataiku
1 an
550 €
Île-de-France, France
Rattaché au Responsable du Département IT Data au sein de la DSI, le Chef de Projet IT intervient sur la mise en œuvre des use cases data sur la plateforme cible, composée de : • Une plateforme d’intégration (ingestion, DataHub, pipelines xDI), • Une plateforme de stockage et transformation (modélisation, data processing), • Une plateforme de mise à disposition des Data Products (API, datamarts, données raffinées), • Des outils de data visualisation, • Des solutions Machine Learning / Data Science, notamment Dataiku. Il contribue au pilotage global de la roadmap data, en cohérence avec l’organisation cible et les pratiques projet de la DSI. Le département IT Data est organisé en squad représentant chaque composante de la plateforme data. 1. Pilotage de projets Data • Planifier, organiser et piloter des projets data (à titre d’exemple ces projets pourront être : Implémentation de use cases data de la conception à la mise en production, Migration technique, Rationalisation des usages de la datavisualisation). • Coordonner l’ensemble des parties prenantes: BA métier / data, Data Engineers, Tech Leads, iOPS, Testing, Data Office. • Assurer le suivi des charges, coûts, délais, risques et dépendances. • Garantir la qualité des livrables data (mapping, modèles, pipelines, dashboards, modèles ML). 2. Supporter la gouvernance de la roadmap Data • Préparer les comités de pilotage de la roadmap Data en support du responsable du département IT Data. A ce titre, consolider l’avancement de l’ensemble des chantiers de la roadmap data (incluant KPIs, pilotage des plannings, des risques et des dépendances) au près des responsables de chantiers. • Préparer les points de synchronisation hebdo sur l’ensemble des chantiers de la roadmap data (identification des interdépendances entre squads, status d’avancement). • Maintien du master plan (vue macro du planning de l’ensemble des squads). • Participer aux instances de la DSI en relation avec les projets data sous pilotage : instances CIM/CVSIT, points hebdos, Design Authority, ... Compétences requises Techniques • Très bonne compréhension des architectures data modernes : ingestion, transformation, data modeling, API, datamarts. • Bonne compréhension des outils de machine learning type Dataiku (projets ML, orchestrations, data prep). • Bon niveau sur les outils de data visualisation. • Maitrise des différents rôles autour d’une organisation data (ML Ops, Data Eng..) Méthodologiques et fonctionnelles • Pilotage de projets IT (Agile / hybride / Cycle en V selon les périmètres). • Capacité à travailler avec des domaines métiers variés et des organisations matricielles. Comportementales • Leadership transversal, communication claire, capacité d’arbitrage. • Sens de la collaboration : lien étroit avec BA, Data Office, Architecture • Rigueur, autonomie, gestion du stress et des priorités. Livrables attendus • Plan projets, backlog, planning, budgets. • Comptes-rendus comités, KPI et tableaux de bord de suivi.
Mission freelance
POT8951 - Un Data Analyste sur Massy
Almatek
Publiée le
Docker
6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Offre d'emploi
Expert /Administrateur Hadoop H/F
OCSI
Publiée le
Ansible
Apache Kafka
Big Data
40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
Chef de projet - Expérimenté Niort - 2 jours de télétravail
WorldWide People
Publiée le
Pilotage
12 mois
400-490 £GB
Niort, Nouvelle-Aquitaine
Chef de projet - Expérimenté Niort - 2 jours de télétravail PMO, relationnel En tant que Delivery Master DATA, coordonner et d'accompagner les équipes projets dans la livraison des initiatives Data. Un rôle central entre les équipes techniques, les chefs de projet, et les parties prenantes métiers. Vos missions incluront notamment : 0 - Rôle de PMO au sein du service : Suivi des budgets Saisies dans Clarity des collaborateurs 1 - Pilotage des projets Data : Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison). Coordonner les équipes multidisciplinaires (Data engineers, Data scientists, Product owners, etc.). Assurer le suivi des indicateurs clés de performance (KPI) et proposer des plans d’action corrective. 2 - Gestion de la qualité et des délais : Garantir la livraison des projets dans les délais impartis et selon les standards de qualité attendus. Superviser le respect des processus et bonnes pratiques en matière de gestion de données (Data Gouvernance, sécurité, conformité). 3 - Gestion Agile : Animer les cérémonies Agile (Daily Standups, Sprint Reviews, Retrospectives). Promouvoir une culture d’amélioration continue et de collaboration au sein des équipes. 4 - Communication et gestion des parties prenantes : Assurer une communication fluide entre les différentes parties prenantes (clients, équipes internes, fournisseurs). Préparer et animer les comités de suivi de projets (comités de pilotage, comités opérationnels). Gérer les attentes des clients et répondre aux demandes d’ajustement ou d’évolution des projets. 5 - Optimisation des processus : Identifier et mettre en place des actions d'amélioration des processus de livraison. Automatiser certaines tâches et optimiser les flux de travail pour augmenter l'efficacité opérationnelle.
Mission freelance
Data Product Owner – Intermodal
LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA
1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Mission freelance
DevOps Engineer
DEVIK CONSULTING
Publiée le
DevOps
3 mois
400-600 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un DevOps Engineer pour exploiter et améliorer en continu des environnements applicatifs, incluant les serveurs, bases de données, services cloud, outils de monitoring et de logging. Mission principale : L’objectif est de garantir une infrastructure hautement disponible, sécurisée et scalable, tout en optimisant les performances, les processus de déploiement et de tests, ainsi que la documentation. Le rôle inclut également l’animation d’initiatives de partage de connaissances au sein de l’équipe et l’application de bonnes pratiques en gestion de projet afin de renforcer la collaboration et l’efficacité. Les tâches de la mission : L’ingénieur DevOps sélectionné sera en charge de : Mettre en place, exploiter et maintenir la plateforme data régionale, incluant Azure, Databricks et Unity Catalog Garantir que l’infrastructure data soit hautement disponible, scalable, sécurisée et robuste Accompagner l’équipe Data & IA en promouvant les bonnes pratiques DevOps, l’automatisation et l’amélioration continue. Collaborer étroitement avec les data engineers et les parties prenantes à l’échelle régionale Compétences requises : Diplôme Bac+3/Bac+5 en informatique, électronique, mathématiques ou équivalent Plusieurs années d’expérience pratique dans la conception et l’exploitation d’environnements cloud Forte expertise des technologies cloud, notamment Microsoft Azure (Databricks, Unity Catalog) Expérience pratique en SQL et Python Bon niveau d’anglais pour une collaboration efficace dans un contexte international Lieu : Paris
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Offre d'emploi
Chef de Projet Data / Delivery Master
CAT-AMANIA
Publiée le
Microsoft Excel
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Mission freelance
Consultant BI Fonctionnel (PBI) - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
3 mois
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Rémunération : TJ 300€ à 350€ (en fonction de votre expérience sur un poste similaire). Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Scientist Expérimenté F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Git
Le Plessis-Robinson, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Chef de Projet IA
VISIAN
Publiée le
Gestion de projet
Gouvernance
1 an
40k-45k €
200-430 €
Paris, France
Descriptif du poste L'organisation souhaite accélérer l'identification, le cadrage et la mise en production de cas d'usage d'Intelligence Artificielle, tout en garantissant la cohérence stratégique, la valeur métier et le respect des standards techniques. Il s'agit plus précisément d'aider la responsable du LAB AI à : Orchestrer les parties prenantes (métiers, Data Science, IT, architecture) Structurer un portefeuille de cas d'usage IA Sécuriser le cadrage et la priorisation Faciliter l'adoption et la gouvernance IA Tâches à réaliser A. Pilotage du portefeuille de cas d'usage IA Recueillir et qualifier les demandes Suivre l'avancement, les dépendances, les risques et la valeur créée Mettre en place et tenir à jour des indicateurs (valeur, maturité, coûts, risques) B. Coordination & communication transverse Assurer le lien entre le LAB AI et les SPOC IT et Non IT Vulgariser les concepts IA auprès de publics non techniques C. Animation & facilitation Concevoir et animer des ateliers : Co-design, co-construction, industrialisation Priorisation Retours d'expérience / capitalisation Aligner les parties prenantes et faciliter l'intelligence collective D. Interface avec experts IA, Data Engineers et architectes Valider la faisabilité technique d'un cas d'usage Comprendre les contraintes data, les dépendances, les impacts architecture Contribuer aux comités et instances de gouvernance IA E. Structuration & capitalisation Contribuer à la création ou amélioration : Des référentiels de cas d'usage Des templates de cadrage Du framework méthodologique IA Des bonnes pratiques IA Documenter les retours d'expérience (succès, échecs, apprentissages) Promouvoir et diffuser la culture IA dans l'organisation
Mission freelance
Fullstack Python/React Developer
Phaidon London- Glocomms
Publiée le
Python
React
12 mois
600-800 €
Paris, France
Développeur Full Stack Python / React Localisation : Paris, France (hybride) Type de contrat : 12 mois Contexte Nous accompagnons une grande institution bancaire basée en France dans un projet stratégique visant à concevoir une nouvelle génération de portail en ligne à destination de ses clients particuliers et entreprises. Cette mission consiste à construire une plateforme web sécurisée, évolutive et cloud-native , centralisant l’ensemble des services bancaires digitaux : gestion des comptes, paiements, souscriptions de produits financiers, assistance client et consultation d’informations en temps réel. Dans le cadre de cette transformation, le Développeur Full‑Stack Python/React jouera un rôle clé dans la conception et le développement de la plateforme from scratch , en garantissant un haut niveau de cybersécurité, une expérience utilisateur fluide et la conformité aux normes et réglementations du secteur bancaire. Responsabilités Concevoir et développer des applications full‑stack en Python (FastAPI / Django / Flask) et React Construire un portail web robuste offrant des fonctionnalités bancaires digitales complètes Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes Mettre en place des flux de données en temps réel ou quasi temps réel pour l’affichage d’informations bancaires Traduire les besoins métiers en solutions techniques scalables , maintenables et performantes Développer des composants cloud‑native sur Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD suivant les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe SI Documenter les solutions et contribuer activement au partage de connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences Techniques Requises Expertise en développement backend Python (FastAPI fortement apprécié ; Django/Flask acceptés) Maîtrise de React et des outils modernes du frontend : TypeScript Hooks Bibliothèques de gestion d'état (Redux, Zustand, Recoil, etc.) Expérience en développement cloud‑native sur Microsoft Azure , incluant : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Solide expérience en conception d’API (REST ; GraphQL apprécié) Connaissances en architectures sécurisées et en gestion des identités : OAuth2, OpenID Connect Azure Active Directory MSAL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
337 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois