Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 150 résultats.
CDI

Offre d'emploi
Product Owner Banque Assurance - CDI F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de projet BI

Comet
Publiée le
Data Warehouse
Databricks
DAX

3 mois
400-610 €
Île-de-France, France
Contrainte forte du projet : Connaissance Power BI, MOA, modélisation datawarehouse Compétences techniques : Modélisation datawarehouse - Expert - Impératif Power BI - Expert - Impératif Gestion de projet - Expert - Impératif MOA - Expert - Impératif Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée : Dans le cadre de la modernisation de notre stack décisionnelle, nous lançons un projet d'envergure visant à migrer l'ensemble de notre écosystème SAP BusinessObjects vers Microsoft Power BI. Nous recherchons un(e) Chef de Projet capable de piloter cette transition stratégique, de la phase de cadrage jusqu'à l'adoption finale par les métiers. Les missions : Cadrage : Inventorier l'existant (Univers, rapports WebI), identifier les rapports critiques à migrer, ceux à supprimer et ceux à optimiser. Pilotage de la Migration : Définir le planning, gérer le budget, coordonner les ressources techniques (Analytics Engineers, développeur Power BI) et assurer le suivi des jalons. Conception de la Cible : Superviser la modélisation des nouveaux jeux de données (Datawarehouse, Datasets) et la création des dashboards sur Power BI Service. Gouvernance : Mettre en place les bonnes pratiques de développement, de sécurité et d'administration de la plateforme Power BI. Accompagnement au Changement : Animer les ateliers avec les utilisateurs métiers, rédiger les documentations et assurer la formation des utilisateurs. Profil recherché : Une forte expertise sur la BI est impératif ( modélisation d'un datawarehouse, méthode d'historisation, exploration de la donnée) Maîtrise des langages SQL et DAX est indispensable. Maitrise de databriks ou d'un outil équivalent (SQL Server, Snowflake). Connaissance BO et du développement de rapport. Maitrise du cycle en V et de la méthode Scrum. Pédagogie, esprit d'analyse, et capacité à traduire des besoins métiers complexes en solutions techniques simples sont attendus pour ce poste. Définition du profil : Il définit, met en oeuvre et conduit un projet BI dans le but d'obtenir un résultat optimal et conforme aux exigences métiers formulées et validées par ou pour le commanditaire en ce qui concerne la qualité, les performances, le coût, le délai et la sécurité.
Freelance

Mission freelance
Backend developer

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Vous intégrerez une équipe IT internationale composée d’architectes, de développeurs backend et frontend, d’ingénieurs QA, ainsi que de spécialistes en run et monitoring. Ensemble, nous concevons, développons et exploitons notre plateforme IoT cloud, déployée sur nos sites en France et en Europe. En tant que Backend Developer, vous rejoindrez l’équipe backend située dans la région lyonnaise. Cette équipe allie une solide expérience, une forte culture du partage des connaissances et une curiosité technologique. Vous contribuerez au développement de nouvelles fonctionnalités, à l’évolution continue de la plateforme, ainsi qu’à la fiabilité à long terme de nos services IoT. Objectifs et livrables Développement de services backend et d’API en C# / .NET, en respectant les bonnes pratiques et les standards de qualité. Participation aux rituels d’équipe tels que les estimations, les revues de sprint, les tests transverses et les rétrospectives. Amélioration continue de notre plateforme cloud Azure : mise à jour des frameworks, gestion des composants en fin de vie, conformité sécurité. Soutien aux méthodes de travail DevOps, Cloud et Agile. Exploration technologique pour identifier et intégrer les innovations pertinentes en collaboration avec les architectes, dans notre plateforme IoT. Autonomie dans l'exécution des tâches, tout en collaborant étroitement avec l’équipe pour affiner les besoins et proposer des solutions adaptées.
Freelance

Mission freelance
Développeur Mobile React Native & Data (Hybride Databricks/Spark)

LINKWAY
Publiée le
Android
Apache Spark
API REST

10 mois
400-450 €
Île-de-France, France
Nous sommes à la recherche d'un Développeur Mobile Senior spécialisé en React Native , possédant une double compétence rare et stratégique en Data Engineering (Databricks, Spark, SQL) . Développement Mobile & Architecture (React Native) : Concevoir l'architecture technique de l'application mobile en utilisant les meilleures pratiques React Native (Bridge, JSI, TurboModules). Développer des interfaces utilisateurs complexes et réactives, impliquant de la visualisation de données (graphiques dynamiques, cartes interactives, tableaux de bord). Gérer l'état de l'application de manière optimisée (Redux, MobX ou Context API) pour minimiser les re-renders. Assurer la compatibilité cross-platform (iOS/Android) et gérer le déploiement sur les stores (App Store, Google Play) ou via des outils de distribution interne (MDM). Ingénierie de Données & Intégration (Databricks / Spark / SQL) : Interagir directement avec l'environnement Databricks pour optimiser les requêtes qui alimentent l'application mobile. Utiliser Apache Spark pour effectuer des transformations de données ou des agrégations nécessaires avant l'envoi vers le mobile, afin d'alléger la charge de traitement côté client. Rédiger et optimiser des requêtes SQL complexes pour extraire des insights précis depuis le Data Lake, en garantissant des temps de réponse compatibles avec une expérience mobile. Participer à la définition des schémas de données pour assurer qu'ils soient "mobile-friendly" (payloads JSON optimisés, pagination efficace). Qualité, Performance et Méthodologie : Mettre en place des tests unitaires, d'intégration et E2E (Jest, Detox) pour sécuriser les livraisons. Diagnostiquer et résoudre les problèmes de performance (fuites de mémoire, lenteurs réseau, goulots d'étranglement SQL). Participer activement aux cérémonies Agile (Scrum/Kanban), aux revues de code et au mentorat technique des développeurs plus juniors. Assurer une veille technologique constante sur l'écosystème React Native et les évolutions de la plateforme Databricks.
CDI

Offre d'emploi
Business Analyst Énergie Renouvelables F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Orange Lyon Lumière, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Freelance

Mission freelance
Chef de projet Agile Devop - Paris

Net technologie
Publiée le
DevOps
Gestion de projet

1 an
Paris, France
🚀 Opportunité – Senior IT Project Manager / Tribe Scrum Master (H/F) Dans le cadre d’un programme stratégique de transformation IT au sein d’un grand acteur international des services financiers (Fund Administration), nous recherchons un profil senior pour piloter des projets structurants autour de la modernisation des systèmes (Cloud, API, DevOps, Data & IA). 🎯 Missions clés : Leadership Agile @Scale (Tribe Scrum Master) Pilotage de projets IT complexes (cadrage, architecture, gouvernance) Déploiement DevOps & Cloud (CI/CD, tests automatisés) Contribution aux cas d’usage IA Coordination transverse Business / IT / Architecture
CDI
Freelance

Offre d'emploi
Scrum Master senior H/F - Rennes

INFOTEL CONSEIL
Publiée le
Agile Scrum
JIRA

3 mois
40k-49k €
450-550 €
Rennes, Bretagne
Notre client effectue une transformation vers l’Agilité. Les équipes sont découpées en squads autour d’un produit et travaillent suivant le cadre SCRUM. Les équipes sont réparties uniformément sur deux sites principaux Rennes et Lyon. Nous sommes accompagnés par des coachs Agile pour la mise en œuvre de la transformation. Dans ce cadre nous recherchons une prestation de Scrum Master expérimenté pour accompagner 1 squad de 6 personnes. Les activités de la squad concernée couvrent mise en œuvre d’une Data plateforme sous la forme d’un socle technique (Spark, Jupyter, Kubernetes, Argo, MinIO, Trino) et d’un cadre de gouvernance garantissant la sécurité, la conformité et la qualité des données. Le périmètre de la fonction est : • dans la squad Data Plateforme, constituée d’un Product Owner, d’un Lead Platform Architect, d’un Data Architect, d’un développeur Platform automation, d’un DevOps, d’un Data Engineer. • le tout au sein de la tribu Data & IA, en lien avec les experts du Chapitre Data Gouvernance & IA et les architectes Data L’accompagnement de l’équipe doit se faire sur l’appropriation du cadre SCRUM, de ses valeurs et la facilitation des problèmes liés aux changement organisationnel et opérationnels. De façon moins prioritaire, et suivant le profil, une partie de l’activité pourrait également être consacrée à l’accompagnement de la transformation Agile de l’entreprise (au niveau DSI, métiers, Architecture, data) avec les autres coachs agiles. Activités principales : ➢ SCRUM MASTER d’une équipe autonome ➢ Garant du cadre Agile et des valeurs auprès des équipes accompagnées et dans l’organisation o Support sur les événements Agiles et s’assure que ceux-ci sont positifs et productifs o Sécurisation du delivery lors des PI Planning o Accompagnement dans l’appropriation auprès des équipiers ➢ Amélioration des pratiques des équipes et facilitation avec les parties prenantes ➢ Facilitation sur les problématiques opérationnelles ➢ Faire grandir les équipes accompagnées en responsabilité et autonomie ➢ Remontée d’alerte si nécessaires ➢ Être force de proposition sur des axes d’amélioration continue ➢ Communication et proactivité dans le mode de fonctionnement Agile de l’équipe et de l’organisation Compétences requises : ➢ Expérience solide dans l’accompagnement d’équipes Agile dans une organisation à l’échelle ➢ Pratiques et méthodes collaboratives dans l’exécution des activités (animation, ateliers divers …..) ➢ Connaissance des outils et techniques d’amélioration continue ➢ Aisance relationnelle, animation, communication ➢ Proactivité ➢ Expérience confirmée dans l’accompagnement et la gestion du changement Qualités personnelles : ➢ Esprit collectif ➢ Sens de l’organisation ➢ Orienté solution
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Directeur de projet IT Fonctionnel

Deodis
Publiée le
Agile Scrum
Dataiku

1 an
550 €
Île-de-France, France
Rattaché au Responsable du Département IT Data au sein de la DSI, le Chef de Projet IT intervient sur la mise en œuvre des use cases data sur la plateforme cible, composée de : • Une plateforme d’intégration (ingestion, DataHub, pipelines xDI), • Une plateforme de stockage et transformation (modélisation, data processing), • Une plateforme de mise à disposition des Data Products (API, datamarts, données raffinées), • Des outils de data visualisation, • Des solutions Machine Learning / Data Science, notamment Dataiku. Il contribue au pilotage global de la roadmap data, en cohérence avec l’organisation cible et les pratiques projet de la DSI. Le département IT Data est organisé en squad représentant chaque composante de la plateforme data. 1. Pilotage de projets Data • Planifier, organiser et piloter des projets data (à titre d’exemple ces projets pourront être : Implémentation de use cases data de la conception à la mise en production, Migration technique, Rationalisation des usages de la datavisualisation). • Coordonner l’ensemble des parties prenantes: BA métier / data, Data Engineers, Tech Leads, iOPS, Testing, Data Office. • Assurer le suivi des charges, coûts, délais, risques et dépendances. • Garantir la qualité des livrables data (mapping, modèles, pipelines, dashboards, modèles ML). 2. Supporter la gouvernance de la roadmap Data • Préparer les comités de pilotage de la roadmap Data en support du responsable du département IT Data. A ce titre, consolider l’avancement de l’ensemble des chantiers de la roadmap data (incluant KPIs, pilotage des plannings, des risques et des dépendances) au près des responsables de chantiers. • Préparer les points de synchronisation hebdo sur l’ensemble des chantiers de la roadmap data (identification des interdépendances entre squads, status d’avancement). • Maintien du master plan (vue macro du planning de l’ensemble des squads). • Participer aux instances de la DSI en relation avec les projets data sous pilotage : instances CIM/CVSIT, points hebdos, Design Authority, ... Compétences requises Techniques • Très bonne compréhension des architectures data modernes : ingestion, transformation, data modeling, API, datamarts. • Bonne compréhension des outils de machine learning type Dataiku (projets ML, orchestrations, data prep). • Bon niveau sur les outils de data visualisation. • Maitrise des différents rôles autour d’une organisation data (ML Ops, Data Eng..) Méthodologiques et fonctionnelles • Pilotage de projets IT (Agile / hybride / Cycle en V selon les périmètres). • Capacité à travailler avec des domaines métiers variés et des organisations matricielles. Comportementales • Leadership transversal, communication claire, capacité d’arbitrage. • Sens de la collaboration : lien étroit avec BA, Data Office, Architecture • Rigueur, autonomie, gestion du stress et des priorités. Livrables attendus • Plan projets, backlog, planning, budgets. • Comptes-rendus comités, KPI et tableaux de bord de suivi.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Freelance

Mission freelance
Sénior Data Engineer SQL & GCP

INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)

3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Freelance
CDI

Offre d'emploi
un(e) Consultant(e) Senior DATA / IA // PO

OMICRONE
Publiée le
BI
Data analysis
IA

2 ans
40k-45k €
400-460 €
Nantes, Pays de la Loire
Nous recrutons un(e) Consultant(e) Senior DATA / IA – Pilotage de projets de bout en bout 📍 Contexte de la mission Dans le cadre du déploiement de notre roadmap DATA / IA, nous renforçons la Direction DATA/IA et recherchons un(e) consultant(e) expérimenté(e) pour piloter des projets de valorisation des données de bout en bout, en lien étroit avec les équipes métiers et IT. 🎯 Votre rôle Vous intervenez comme chef d’orchestre des projets DATA / IA, garant de la valeur métier, des délais, de la qualité des livrables et du respect des budgets. 🧩 Vos responsabilités Piloter des projets DATA / IA de bout en bout au sein de la Direction DATA/IA Assurer la synergie entre équipes métiers et équipes de développement Travailler avec les métiers pour définir la solution cible et la décliner en fonctionnalités Construire, maintenir et prioriser le Product Backlog (user stories) Créer et animer une équipe projet pluridisciplinaire (métiers & IT) Mettre en place et animer les rituels Agile (selon le framework interne) Élaborer et suivre le planning des itérations en lien avec les enjeux de Time to Market Suivre l’exécution, ajuster le backlog selon les contraintes techniques et délais Mettre en place des boucles de feedback utilisateurs à chaque itération Piloter le budget projet, suivre la consommation et ajuster le périmètre si nécessaire Animer les instances de gouvernance : cérémonies agiles, COPIL, interventions CODIR / COMEX si besoin Définir la stratégie de déploiement, l’ouverture du service et la conduite du changement auprès des utilisateurs finaux 🧠 Profil recherché Expérience confirmée en pilotage de projets DATA / BI / IA Forte capacité à travailler à l’interface métiers / IT Maîtrise des méthodes Agile (Scrum, Kanban, SAFe…) Excellentes compétences en communication et en animation d’équipes Solide culture produit, orientée valeur métier À l’aise avec le pilotage budgétaire et la gouvernance projet ⭐ Pourquoi nous rejoindre ? Des projets DATA / IA à fort impact métier Un rôle central et visible au sein de la Direction DATA/IA Un environnement stimulant, collaboratif et orienté innovation
CDI

Offre d'emploi
Product Owner Confirmé - Backend & Anti-Fraude (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum

47k-51k €
Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

150 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous