Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 169 résultats.
Freelance

Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F

Comet
Publiée le
Azure
Bloomberg
IA

128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
CDI

Offre d'emploi
Chef de Projet Data Migration & Cutover - Workday Finance F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le

69001, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Delivery Master

CAT-AMANIA
Publiée le
Microsoft Excel

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Chef de Projet Data / Delivery Master pour le compte de notre client, acteur majeur dans le secteur des assurances . Au sein du Data Office , vous intégrerez le service Référentiels , dont la mission est de maintenir et de faire évoluer les référentiels stratégiques de l’entreprise (référentiel Personne, Véhicule, Immobilier). Vous jouerez un rôle central dans la coordination et l’accompagnement des équipes projets Data , en assurant la livraison des initiatives dans le respect des délais, des coûts et des standards de qualité, tout en faisant le lien entre les équipes techniques et les parties prenantes métiers. Présence demandée : 3 jours par semaine sur site à Niort. Vos missions principales 1. Rôle PMO au sein du service Suivi budgétaire des projets Saisie et suivi des collaborateurs dans l’outil Clarity 2. Pilotage des projets Data Planifier et organiser les projets de bout en bout (de la phase d’étude à la livraison) Coordonner des équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI projets et proposer des plans d’actions correctifs 3. Gestion de la qualité et des délais Garantir la livraison des projets dans les délais impartis et selon les exigences de qualité Veiller au respect des bonnes pratiques Data (Data Gouvernance, sécurité, conformité) 4. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective) Favoriser une culture d’amélioration continue et de collaboration 5. Communication et gestion des parties prenantes Assurer une communication fluide entre équipes techniques, métiers et partenaires Préparer et animer les comités de suivi (COPIL, comités opérationnels) Gérer les attentes et les demandes d’évolution 6. Optimisation des processus Identifier et mettre en œuvre des axes d’amélioration des processus de delivery Automatiser et optimiser les flux de travail pour renforcer l’efficacité opérationnelle
Freelance
CDI

Offre d'emploi
Consultant Fonctionnel Senior ServiceNow

KLETA
Publiée le
CRM
ServiceNow

3 ans
Paris, France
Missions Au sein de l’équipe projet, vous interviendrez notamment sur : Animation d’ateliers métiers et recueil des besoins Formalisation des besoins et rédaction des Epics / User Stories Analyse des écarts entre besoin métier et standard ServiceNow Paramétrage fonctionnel de la solution ServiceNow CSM Contribution aux phases de tests fonctionnels (VABF) Participation au déploiement de la solution Documentation fonctionnelle et transfert de compétences Modalités Sur site 3 jours par semaine à Paris Démarrage asap
Freelance

Mission freelance
POT8960 - Un consultant senior certifié Qlik sur Aix-en-Provence

Almatek
Publiée le
Qlik Sense

6 mois
Marseille, Provence-Alpes-Côte d'Azur
Almatek recherche pour l'un de ses clients Un consultant senior certifié Qlik sur Aix-en-Provence. Contexte et enjeux de la mission : Accompagner cette équipe projet dans un premier cas d’usage BI identifié au sein des bureaux métiers de la base Description de la prestation : -Activités à prévoir : *Favoriser la montée en compétence de l’équipe projet sur Qlik Sense à travers la réalisation d’un tableau de bord Qlik Sense de pilotage et de suivi *Aider l’équipe projet à identifier les données afférentes à son usage au travers de la modélisation des tables de données fournies comme source d’information et à comprendre l’action de valorisation de ces données à travers la réalisation du tableau de bord Qlik Sense -Livrables attendus : *Rapport d’analyse de l’existant (cartographie des données sources, analyse de la maquette déjà existante initiée sous Qlik, analyse du delta avec le tableau de bord cible, …) *Modélisation et création de la base de données *Intégration des données sources *Co-développements et amélioration du tableau de bord Qlik maquetté *Accompagnement au déploiement sur l’environnement de préproduction Qlik Sense du MinArm *Elaboration de la documentation associée (spécifications des transformations de données réalisées, guide utilisateur, …) -Contraintes : *Prendre en compte les bonnes pratiques de développement Qlik Sense imposées par le MinArm (« Document des bonnes pratiques du Développeur Qlik Sense » fourni en début de prestation) et les contraintes de la plateforme ministérielle de déploiement *Accompagner l’équipe projet MinArm et favoriser la maintenance en autonomie du tableau de bord développé *Contrôle élémentaire (CPR) valide en début de mission *Données DR, anonymisées et blanchies transmises pour être utilisées dans les locaux du prestataire *Etre habilitable Compétences techniques *Qlik Sense - Confirmé - Important *BDD - Confirmé - Important -Localisation : Aix-en-Provence (au moins 2 jours sur site MinArm et le reste dans les locaux du prestataire)
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Freelance

Mission freelance
Manager Senior – Remédiation recommandations prudentielles – Banque de détail

Mon Consultant Indépendant
Publiée le
Finance
Gestion de projet

6 mois
650-690 €
Paris, France
Contexte : Un établissement bancaire de détail de premier plan engage une démarche de remédiation structurée sur un stock de 80 recommandations issues d'inspections prudentielles (régulateur externe, inspection générale). La direction mobilise un profil senior pour prendre en charge le pilotage opérationnel de ce chantier et en assurer la coordination globale. Objectifs de la mission : Piloter et coordonner la remédiation des recommandations prioritaires. Structurer et formaliser l'état des lieux global. Garantir la couverture des projets à enjeux dans les délais attendus. Activités principales : Prendre en charge le pilotage des projets de remédiation les plus structurants Coordonner les parties prenantes internes sur un périmètre transverse multi-directions Produire et maintenir un état des lieux consolidé opposable aux instances de contrôle Contribuer activement sur les thématiques prioritaires : crédit immobilier, évolution du fonds de commerce, trajectoire marketing, rentabilité des produits Organiser et animer les comités de suivi de l'avancement Profil recherché : Manager Senior ou Senior Manager, expérimenté en environnement bancaire réglementé. Forte culture banque de détail. Capacité à prendre en charge des sujets complexes de manière autonome. Posture de leadership opérationnel. Expérience avérée sur des missions de remédiation réglementaire ou d'inspection. Environnement : Banque de détail. Thématiques : crédit immobilier, marketing produit, rentabilité. Cadre réglementaire : recommandations ACPR, BCE, inspection générale. Environnement multi-projets, forte exposition aux équipes internes et à la direction.
Freelance

Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Freelance

Mission freelance
SAP IS-U (CRM)

Montreal Associates
Publiée le
SAP
SAP ISU

6 mois
500-650 €
Paris, France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐒𝐀𝐏 𝐈𝐒-𝐔 𝑀𝑖𝑛 8 𝑎𝑛𝑠 𝑑'𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑑𝑎𝑛𝑠 𝑙𝑎 𝑟𝑒́𝑎𝑙𝑖𝑠𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑝𝑟𝑜𝑗𝑒𝑡𝑠 𝑝𝑜𝑢𝑟 𝑑𝑒 𝑔𝑟𝑎𝑛𝑑𝑠 𝑎𝑐𝑡𝑒𝑢𝑟𝑠 𝑑𝑒 𝑙'𝑒́𝑛𝑒𝑟𝑔𝑖𝑒 𝑎𝑢 𝑠𝑒𝑖𝑛 𝑑𝑒𝑠 𝑒𝑛𝑣𝑖𝑟𝑜𝑛𝑛𝑒𝑚𝑒𝑛𝑡 𝑅𝑈𝑁, 𝑇𝑀𝐴, 𝐴𝑀𝑂𝐸 & 𝑀𝑂𝐸. 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐄̂𝐭𝐫𝐞 𝐥𝐞 𝐫𝐞𝐬𝐩𝐨𝐧𝐬𝐚𝐛𝐥𝐞 𝐟𝐨𝐧𝐜𝐭𝐢𝐨𝐧𝐧𝐞𝐥 𝐝𝐞𝐬 𝐝𝐨𝐦𝐚𝐢𝐧𝐞𝐬 𝐂𝐑𝐌 𝐞𝐭 𝐝𝐞𝐬 𝐩𝐥𝐚𝐭𝐞𝐟𝐨𝐫𝐦𝐞𝐬 𝐝'𝐞́𝐜𝐡𝐚𝐧𝐠𝐞𝐬 𝐝𝐢𝐬𝐭𝐫𝐢𝐛𝐮𝐭𝐞𝐮𝐫𝐬. - Support applicatif de niveau 2 & 3 - Analyse et gestion des demandes de changement métier, technique et réglementaire - Rédaction des spécifications fonctionnelles et techniques - Participation aux tests unitaires, aux tests d'intégration système (SIT) et aux tests d'acceptation utilisateur (UAT) - Gestion et résolution des incidents de production - Gestion des tickets JIRA et suivi des anomalies - Contribution aux phases de déploiement, à l'hypercare et à la stabilisation du support opérationnel 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2 à 3j semaine sur site 🕐 6 mois - 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 600/650€
Freelance
CDD
CDI

Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)

Taleo Capital
Publiée le
Apache Hive
Cloudera
Python

6 mois
57k-64k €
520-580 €
Paris, France
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Freelance

Mission freelance
Consultant BI – Azure Data Factory & Power BI

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
400-500 €
Paris, France
Dans le cadre de la modernisation de sa plateforme décisionnelle, notre client recherche un Consultant BI pour concevoir, déployer et maintenir des solutions de reporting et de data integration basées sur Azure Data Factory et Power BI . Mission : Le consultant interviendra sur toute la chaîne BI : ingestion, transformation, modélisation et restitution. Il participera à la structuration du datawarehouse, à l’industrialisation des flux via Azure Data Factory et à la création de tableaux de bord Power BI pour les directions métiers. Responsabilités principales : Développement et maintenance des pipelines Azure Data Factory Modélisation des données (datawarehouse, datamarts) Création et optimisation de rapports Power BI Mise en place des bonnes pratiques de performance, sécurité et gouvernance Support et évolutions des solutions BI en production Interaction avec les équipes métiers et IT Profil recherché : Consultant BI confirmé Expérience sur Azure Data Factory et Power BI Maîtrise des environnements de production Capacité à comprendre les besoins métiers et à les traduire en indicateurs Environnement : Azure, Azure Data Factory, Power BI, SQL, Datawarehouse, Reporting, Cloud
CDI

Offre d'emploi
Ingénieur de test TIC I Junior

Mon Consultant Indépendant
Publiée le
Gestion de projet

70k-80k €
Nyon, Vaud, Suisse
Description : Développer, spécifier, gérer et réaliser des tests à l'aide d'outils et de techniques de test appropriés, et documenter l'ensemble du processus de test conformément aux normes de processus convenues, aux réglementations sectorielles et sur la base de la stratégie de test et de la base de test. Expérience requise: 0-3 ans. - Personne qui aime le travail d’équipe - Capable de s’affirmer - Profil avec plutôt des connaissances métiers ( pas un profil technique) - Pas besoin d’avoir une affinité avec l’informatique. - Profil proche d’un BA - Langues : Français, Anglais et l’allemand en facultatif - Connaissance du fonctionnement de l’assurance - Profil pas forcément sénior - Personnalité motivée Tâches principales : -Analyse de systèmes utilisateurs simples en termes de testabilité -Évaluation de systèmes utilisateurs simples en termes de testabilité -Création de concepts de test simples -Création de modèles de test simples -Évaluation d'analyses simples des risques produits -Construction d'environnements de test simples -Coopération à la mise en oeuvre de la stratégie de test à l'aide de méthodes et d'outils de test -Coopération à la création de la matrice de couverture de test -Fourniture de données de test simples -Détermination de cas de test simples automatisés -Collaborer à l'analyse des outils de test -Implémenter des outils de test simples -Exécuter des tests simples selon les cas de test spécifiés -Documentation des tests simples selon les cas de test spécifiés -Collaborer à la définition des risques de test après test -Collaborer à l'analyse des erreurs de test -Accompagner des corrections simples d'erreurs -Collaborer à la mesure des performances des systèmes de test dans les tâches que cette personne aura : - Contrôle des documents - Contrôle de la qualité des spécifications - Collaboration avec les développeurs de l’équipe - Collaboration avec les différents BA du train - Coordination des tests avec les autres QE/équipes
CDI

Offre d'emploi
Data Analyst/Ingénieur BI

Codezys
Publiée le
Azure
Azure Data Factory

40k-47k €
Nantes, Pays de la Loire
Urgent Type de prestation : expert BI/data analyst Lieu de la mission : NANTES / Le consultant doit obligatoirement habiter à NANTES Télétravail : 2j/s Anglais courant est un + Description et livrables de la prestation En tant qu’Expert(e) BI Entreprise au sein de la DSI de ManpowerGroup (Filiale EXPERIS), vous serez au cœur de l’action. Votre mission ? Prendre en charge les nouveaux besoins de nos interlocuteurs métiers et intervenir sur toutes les phases d’un projet d’ingénierie DATA. Vos responsabilités : • Solution Complète BI Entreprise : Vous serez le référent(e) sur nos solutions BI pour les métiers Finance, AdV, Comptabilité, RH, Recrutement, Services généraux et Commerce. Imaginez les opportunités d’optimisation, de reporting et de modélisation que vous pourrez explorer ! • L’intégration des données et la création de mesures • La conception d’architectures décisionnelles complètes • L’élaboration d’états (reporting), tableaux de bord (dashboard) et modèles sémantiques • La documentation • Le maintien en condition opérationnelle de tout l’existant • L’optimisation constante de nos livrables • Solution Complète BI Opérationnel Client : Ponctuellement, vous plongerez dans notre BI Opérationnel Client, analysant les KPI des centres de relation clients, de la téléphonie au ticketing.
CDI

Offre d'emploi
Data Scientist - IA Générative & RAG F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Rueil-Malmaison, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

3169 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous