Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 770 résultats.
Freelance

Mission freelance
Lead Tech CRM/CMS & Scrum Master (H/F)

Comet
Publiée le
Angular
API Platform
CI/CD

180 jours
400-500 €
Paris, France
Garantir la cohérence technique du socle CRM/CMS et la qualité d’exécution du projet. Assurer le rôle de Scrum Master côté développement , en coordination avec le Delivery Manager. 🛠️ Activités principales : Définir et garantir les standards techniques et l’ architecture du socle CRM/CMS Réaliser les revues de conception et porter les décisions d’architecture Accompagner et encadrer l’équipe de développement Animer les rituels Scrum côté développement Assurer la cohérence des conventions API et du découpage modulaire Définir les interfaces et contrats avec un Hub IA Mettre en place et suivre les quality gates , SLIs et indicateurs de performance Contribuer à la sécurité applicative et à la qualité globale du produit
CDI

Offre d'emploi
Architecte SI senior H/F

HAYS France
Publiée le

80k-90k €
75001, France
Au sein de la Direction des Systèmes d'Information (DSI) et rattaché au département PMO, vous jouerez un rôle clé dans la définition et la mise en oeuvre de l'architecture des systèmes d'information, dans le cadre d'un CDI. Vos missions seront : Stratégie Architecturale : Élaborer et implémenter une stratégie pour un paysage IT moderne et performant, incluant des systèmes distribués et l'intégration d'intelligence artificielle. Alignement Stratégique : Adapter les technologies et les systèmes d'information aux objectifs de l'entreprise et aux orientations de l'actionnaire, en exploitant les capacités du cloud Innovation : Accélérer la transformation numérique en adoptant des technologies de rupture pour répondre aux besoins futurs. Vision Architecturale : Promouvoir une architecture globale centrée sur la performance, l'automatisation et la gestion avancée des données. Activités principales 1. Vision et Stratégie : 2. Conception Applicative : 3. Gestion du Cycle de Vie des Applications : 4. Veille Technologique : 5. Collaboration et Conseil : 6. Contribution au management de la Direction Informatique
Freelance

Mission freelance
Site Reliability Engineer (SRE)

Okara
Publiée le
Datadog
DNS
Github

6 mois
450-650 €
Lille, Hauts-de-France
Le Contexte : Pour le compte de l'un de nos clients, une scale-up en pleine croissance dont la plateforme gère des flux critiques à haute disponibilité, nous recherchons un(e) Site Reliability Engineer (SRE) . Vous intégrerez l’équipe Opérations , véritable tour de contrôle garante de la fiabilité, de la sécurité et de la performance des services déployés à l'échelle internationale. Les Enjeux du Poste : Votre rôle est à la croisée du développement et de l'exploitation système. Votre mission principale : transformer les opérations manuelles en ingénierie automatisée. Fiabilité & Scalabilité : Piloter la montée en charge des systèmes et garantir un uptime maximal. Automatisation & IA : Assurer le suivi des incidents avec une volonté constante d'automatiser la résolution (via software ou IA). Gestion d'Incidents : Analyser les root causes , mener les post-mortems et implémenter les actions correctives durables. Production Readiness : Collaborer avec les équipes Dev et Sécurité pour valider la mise en production des nouvelles fonctionnalités. Observabilité : Optimiser la supervision (Datadog) pour passer d'un mode réactif à un mode proactif. Profil Recherché (Confirmé/Senior) : Nous recherchons un profil ayant idéalement 3 à 5 ans d'expérience sur des environnements de production critiques. Rigueur chirurgicale : Vous suivez vos sujets de bout en bout, sans laisser de zones d'ombre. Sang-froid : Vous savez prioriser et communiquer avec clarté, même en période de pic d'activité ou d'incident. Esprit "Engineering" : Vous avez une sainte horreur des tâches manuelles répétitives et cherchez toujours à coder une solution pérenne. Vulgarisation : Vous savez traduire des problématiques complexes pour des interlocuteurs non-techniques. Stack Technique : Cloud : GCP (Google Cloud Platform) Containerisation : Kubernetes (expert), Linux Code : Python (Software Engineering & Scripting) IaC : Terraform Observabilité : Datadog CI/CD : GitHub, GitHub Actions Réseaux & Sécurité : VPC, DNS, Loadbalancing, WAF, DDoS Data : SQL & NoSQL
CDI

Offre d'emploi
ALTERNANCE - DATA SCIENTIST

█ █ █ █ █ █ █
Publiée le
Python
SQL

Lesquin, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Chef de projets Reporting règlementaire

NEXORIS
Publiée le
Microsoft Power BI

1 an
570-700 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Chef de Projets Reporting Réglementaire – Qualité de Données (H/F) dans le cadre d'une longue mission. Au sein des Opérations de Marchés, dans l’équipe Capital Markets Regulatory, la mission consiste à piloter des projets liés à la qualité et à la complétude du reporting réglementaire transactionnel. L’intervention porte sur la formalisation des besoins, le déploiement de contrôles de qualité de données et l’accompagnement des évolutions réglementaires et organisationnelles. - Cadrage des besoins métiers et rédaction des Business Requirement Documents (BRD) - Validation des spécifications fonctionnelles - Conception des cahiers de test et validation des UAT - Interprétation des textes réglementaires en coordination avec la Conformité Marché - Déploiement et codage des contrôles de qualité de données (outil interne ou solutions externes type Power BI) - Création de dashboards de suivi de la qualité des données - Analyse des défauts de qualité de données et pilotage des actions de remédiation - Formalisation des procédures écrites et des modes opératoires - Définition et mise en œuvre du Target Operating Model - Animation de la gouvernance projet avec les équipes FO, MO, BO, Conformité et IT - Exploration des besoins en Data Lineage et Intelligence Artificielle appliqués à la qualité des données Livrables : - BRD et documentation fonctionnelle - Cahiers de test et validation UAT - Procédures et modes opératoires formalisés - Dashboards de suivi qualité - Plans de remédiation et reporting d’avancementNotre client, Banque de Finance et d'Investissement, recherche un Chef de Projets Reporting Réglementaire – Qualité de Données (H/F) dans le cadre d'une longue mission. Au sein des Opérations de Marchés, dans l’équipe Capital Markets Regulatory, la mission consiste à piloter des projets liés à la qualité et à la complétude du reporting réglementaire transactionnel. L’intervention porte sur la formalisation des besoins, le déploiement de contrôles de qualité de données et l’accompagnement des évolutions réglementaires et organisationnelles. - Cadrage des besoins métiers et rédaction des Business Requirement Documents (BRD) - Validation des spécifications fonctionnelles - Conception des cahiers de test et validation des UAT - Interprétation des textes réglementaires en coordination avec la Conformité Marché - Déploiement et codage des contrôles de qualité de données (outil interne ou solutions externes type Power BI) - Création de dashboards de suivi de la qualité des données - Analyse des défauts de qualité de données et pilotage des actions de remédiation - Formalisation des procédures écrites et des modes opératoires - Définition et mise en œuvre du Target Operating Model - Animation de la gouvernance projet avec les équipes FO, MO, BO, Conformité et IT - Exploration des besoins en Data Lineage et Intelligence Artificielle appliqués à la qualité des données Livrables : - BRD et documentation fonctionnelle - Cahiers de test et validation UAT - Procédures et modes opératoires formalisés - Dashboards de suivi qualité - Plans de remédiation et reporting d’avancement
Freelance

Mission freelance
🎯 QA Engineer / Assurance Qualité Logicielle (F/H)

CELAD
Publiée le

1 an
320-350 €
Toulouse, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Toulouse - Au moins 3 ans d’expérience Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e QA Engineer pour intervenir chez un de nos clients, dans le secteur de l’environnement. Contribuez à livrer des produits fiables, plus vite, et du premier coup. Notre client renforce son dispositif d’Assurance Qualité Logicielle. L’objectif est simple et ambitieux : accélérer les livraisons tout en augmentant le niveau d’exigence qualité. Vous interviendrez au cœur des équipes qui développent et valident les produits applicatifs, avec un rôle clé : structurer, mesurer, sécuriser et améliorer en continu. Ce que vous allez faire concrètement Votre mission s’organise en deux temps. Contexte : Voici un aperçu détaillé de vos missions : Phase 1 – Structurer, mesurer et sécuriser Piloter la qualité par la donnée *Vous construisez et exploitez les tableaux de bord QA : *Taux de couverture des tests *Nombre de tests automatiques *Nombre d’anomalies *Respect des jalons *Satisfaction client Vous vous appuyez notamment sur : SonarQube, Allure, Jira et Grafana. Votre rôle ne se limite pas à produire des KPI : vous les analysez et en tirez des recommandations actionnables. Contrôler la qualité du code *Analyse régulière des résultats issus de SonarQube *Identification des écarts *Accompagnement des équipes de développement pour leur correction *Vous êtes un partenaire exigeant, pas un contrôleur isolé. Superviser la qualité des tests *Analyse des résultats des tests automatiques (Allure) *Suivi des tests manuels (Squash) *Analyse de la couverture, du taux de réussite, du niveau d’automatisation *Vous veillez à ce que la stratégie de tests soit cohérente avec les enjeux produit. Gérer les non-conformités *Enregistrement, suivi et clôture des anomalies dans Jira *Traçabilité claire et rigoureuse *Communication fluide avec les parties prenantes Phase 2 – Améliorer et innover Contrôler la documentation produit Vous vérifiez la mise à jour des livrables (spécifications, guides utilisateurs, etc.) et garantissez leur cohérence avec les versions livrées. Contribuer à l’amélioration continue *Participation active aux rituels Agile *Propositions d’actions concrètes pour réduire les délais de livraison *Contribution à l’augmentation de la qualité perçue *Vous êtes force de proposition, pas simple observateur. Introduire l’IA dans la QA *Vous explorez et mettez en œuvre des cas d’usage IA pour : *Classification automatique des anomalies *Optimisation des analyses qualité *Accélération des cycles de validation Nous cherchons quelqu’un qui ne se contente pas d’appliquer un cadre, mais qui le fait évoluer.
CDI

Offre d'emploi
ALTERNANCE - Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Big Data
Cassandra
Deep Learning

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
CTO / PO Tech (Management de transition – mi-temps)

Teaminside
Publiée le
Java
PostgreSQL
React

1 an
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre de sa structuration et de son passage à l’échelle, une entreprise technologique spécialisée dans les données de santé recherche un consultant senior pour intervenir en management de transition sur un rôle hybride de CTO / PO Tech . L’organisation conçoit et opère des solutions numériques à fort impact clinique , utilisées au quotidien par des professionnels de santé et intégrées dans des parcours de soins réels (suivi patient, interopérabilité avec les systèmes hospitaliers, exploitation de données cliniques complexes). La mission s’inscrit dans un moment clé : remplacement progressif du CTO en poste, structuration de la gouvernance technique, accompagnement du virage IA de la plateforme, préparation d’une montée en charge significative des équipes (croissance forte attendue à 2 ans). La mission est prévue à mi-temps , avec une forte autonomie , un périmètre stratégique clair et un impact direct sur les choix structurants de l’entreprise . Objectifs de la mission Le consultant interviendra comme référent technique et produit , avec pour objectifs principaux : Assurer le pilotage technique global de la plateforme et sécuriser les choix d’architecture. Aligner les décisions technologiques avec les enjeux business, réglementaires et cliniques . Structurer le rôle de PO Tech au sein des équipes de développement. Accompagner la transformation vers des usages IA / data avancés . Créer un cadre de delivery robuste et scalable. Responsabilités principales Pilotage technique & architecture Superviser le développement technique et l’évolution de l’architecture. Garantir la cohérence des flux applicatifs et des choix d’urbanisation. Être l’interlocuteur technique de l’hébergeur cloud et challenger les dispositifs existants. Apporter une expertise d’architecture orientée données de santé (flux, qualité, sécurité). Rôle de PO Tech / Delivery Animer les cérémonies agiles (sprints, refinements, priorisation). Rédiger et structurer les user stories et tickets techniques. Challenger les estimations et sécuriser les engagements de delivery. Rédiger des spécifications techniques claires et exploitables. Contribution opérationnelle Intervenir ponctuellement dans le code pour accompagner les développeurs si nécessaire. Être un appui technique de haut niveau pour une équipe réduite mais expérimentée. Travailler étroitement avec les profils data et IA. Data & IA Accompagner la structuration du data catalogue (actuellement non industrialisé). Participer à la mise en place d’une gestion automatisée et fiable de la donnée. Être force de proposition sur les usages IA (automatisation, exploitation de données, productivité). Collaborer avec un futur responsable data / Chief Data Officer. Environnement technique Langages & frameworks : Java, NodeJS, VueJS, React, Python Base de données : PostgreSQL Data : données cliniques complexes, formats JSON, volumétrie significative Outils : Figma (UX / conception) Retool (exploitation et manipulation de la donnée) Cloud / Hébergement : environnement dédié nécessitant un échange direct avec l’hébergeur Modalités de la mission Type : Management de transition / Conseil Rythme : Mi-temps Démarrage : ASAP (idéalement septembre / début octobre) Durée : Mission longue avec perspective d’accompagnement dans la durée Contexte : Forte exposition stratégique, interaction directe avec la direction opérationnelle Pourquoi cette mission est attractive Mission à fort impact sociétal , directement liée à l’amélioration des parcours de soins. Rôle clé dans une phase de transformation structurante . Liberté de proposition sur les choix techniques, data et IA. Positionnement stratégique sans contrainte d’un rôle full-time. Environnement exigeant, mais humain, avec une vraie reconnaissance de l’expertise apportée.
Freelance

Mission freelance
Data Architect Databricks Nantes/pa

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Data Architect Databricks Nantes Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…). Prestation de Data Architect •Il définit l’architecture Data pour son périmètre, en fonction des besoins métier, en tenant compte de l’architecture du SI, des règles de gouvernance Data et plus globalement des standards et des communs définis au niveau de son organisation. •Sur la partie Data, il définit les normes et standards en matière de disponibilité, d’intégrité, de confidentialité et de traçabilité dans l'objectif de maximiser la valeur que l’organisation tire de ces données. •C’est lui qui pilote la mise en oeuvre des principes d’architecture Data dans le SI et garantit sa conformité, sa performance, sa pérennité, son adéquation aux besoins métier ainsi que l’optimisation du cycle de vie de la donnée. •Le Data Architect préconise et valide les principes de modélisation des données pour qu’ils soient adaptés aux usages de façon durable. •Il organise la gestion des référentiels Data et facilite leur maintenance. Tâches : •Contribue à l’élaboration de la stratégie Data de la donnée alignée avec la stratégie business et en cohérence avec la roadmap de l’Architecte d’entreprise. •Contribue aux choix technologiques qui portent le cycle de vie de la donnée. •Assure une veille technologique active sur les solutions innovantes et particulièrement en matière de Data et d’IA. •Définit les règles, normes et standards en matière de stockage et de traitement de la donnée. •Coordonne les travaux d’architecture Data et en assure la gouvernance. •Assure la cohérence du modèle Data tout au long du cycle de vie des projets. •Répond aux exigences réglementaires liées à la Data. Compétences Techniques •Maîtrise des bases de données relationnelles et non relationnelles (ex : SQL, NoSQL, …). •Compétence en modélisation de données et en conception de schémas. •Connaissances des pratiques d’architecture solution •Expertise dans des outils et technologies Big Data (Databricks). •Connaissance des environnements cloud (ex : Azure…).
CDI

Offre d'emploi
AI Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Databricks

45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Freelance

Mission freelance
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT

WorldWide People
Publiée le
DBT
Informatica PowerCenter

12 mois
490-620 £GB
Niort, Nouvelle-Aquitaine
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT- Expérimenté Niort - 2 jours de télétravail AGILE,DBT,Analyste Fonctionnel,Informatica Power Center La mission s’inscrit au sein des activités Data Solutions et Intelligence Artificielle, dont les objectifs sont d’améliorer la valorisation des données et de développer des usages IA responsables. L’équipe a pour rôle : de collecter, organiser et transformer les données afin qu’elles puissent être exploitées efficacement par l’ensemble des métiers, d’être un acteur clé de l’exécution de la stratégie Data, et de favoriser l’adoption de cas d’usage IA performants et fiables, au service des collaborateurs et des clients internes. L’environnement est structuré autour d’un écosystème Data riche, en constante évolution, nécessitant une bonne compréhension technique et une capacité à intervenir sur différents leviers data & IA. Objectifs et livrables Dans le cadre de cette mission, le consultant interviendra sur plusieurs volets critiques : Analyse d’incidents – OMC Personne Analyse approfondie des incidents liés à l’OMC Personne. Identification des causes racines, propositions de corrections et suivi des actions associées. Intégration des évolutions nécessaires dans le fonctionnement de la plateforme. Développements Data Participation aux développements prévus sur les briques Informatica et DBT. Intégration et transformation des données dans le respect des bonnes pratiques data engineering. Contribution à l’industrialisation et à la qualité des pipelines. Contribution à l’amélioration continue Participation aux rituels et travaux data transverses. Proposition d’optimisations techniques et fonctionnelles. Veille active sur les bonnes pratiques et les outils data & IA.
Freelance
CDI

Offre d'emploi
Chef de Projet Recette - Plateforme Cloud Native

VISIAN
Publiée le
Infrastructure
Maintien en condition opérationnelle (MCO)

1 an
40k-45k €
400-520 €
Île-de-France, France
Détail de la prestation Ce Pôle est le centre d'expertise pour l'infrastructure, le cloud, la donnée, l'IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l'innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. Dans le cadre du pilotage du projet stratégique, nous recherchons un Chef de Projet Recette pour renforcer l'équipe projet et notamment le Directeur de programme. La mission consiste à piloter le stream Recette dans le cadre du déploiement et de l'industrialisation de la plateforme OpenShift. Le chef de projet sera responsable de piloter les activités de recette liées au déploiement de la plateforme OpenShift, en assurant la coordination entre les équipes techniques et métiers. Ce programme consiste à remplacer la plateforme OpenStack actuelle, devenue obsolète, par une plateforme cloud native plus moderne, performante et sécurisée. Périmètre Définition du périmètre de recette (technique et fonctionnel) Élaboration de la stratégie de recette et planification Mise en place des environnements de test Coordination avec les équipes MCO/MCS Pilotage des campagnes de recette (y compris celles avec les clients) Suivi des anomalies et coordination des correctifs Reporting projet Contribution à l'amélioration continue Activités attendues Rédaction des plans de test Animation des comités de suivi Suivi opérationnel des tests (exécution, automatisation, couverture) Reporting sur les risques et les plans d'action Coordination transverse avec les autres streams
Freelance

Mission freelance
Data Engineer GCP (H/F)

CELAD
Publiée le

1 an
400-440 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
Product Director / Lead Product Owner

Trait d'Union
Publiée le
API
E-commerce
Méthode Agile

1 an
550-650 €
Île-de-France, France
Le Product Director occupe une position pivot, à la fois stratégique et opérationnelle, pour piloter une entité dédiée aux solutions d'interface de programmation (API). Sa mission consiste à garantir la fluidité de l'exécution et l'alignement des produits avec les priorités globales de l'organisation. Les responsabilités s'articulent autour de trois piliers majeurs : Pilotage Opérationnel : Encadrement quotidien des Product Owners (PO), gestion des backlogs, arbitrage des priorités et sécurisation des roadmaps. Il agit comme point de contact unique (SPOC) pour les demandes transverses. Transformation & Product Excellence : Modernisation des méthodes de travail via l'intégration de l' IA pour gagner en productivité. Il structure les pratiques de Product Marketing (proposition de valeur) et de Product Operations (visibilité du delivery). Innovation : Identification et lancement d'initiatives exploratoires (POC, phases de discovery, tests marché) pour définir la vision technologique à long terme.
CDI

Offre d'emploi
Consultant·e Data Engineer – Senior / Confirmé·e

█ █ █ █ █ █ █
Publiée le
CI/CD
Python
SQL

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous