L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 834 résultats.
Mission freelance
Business Analyst – Global Markets - Paris
Net technologie
Publiée le
Business Analyst
Market data
1 an
Paris, France
Dans le cadre de la structuration Global Markets , nous recherchons un profil pour rejoindre l’équipe QIS (Quantitative Investment Strategies) , en Salle des Marchés; L’équipe QIS développe et promeut la gamme d’indices propriétaires. Le poste s’inscrit au sein de l’équipe QIS Transversal , intégrée à une Task Force stratégique visant à optimiser la chaîne de publication des indices (réduction de la maintenance quotidienne et du risque opérationnel). 🛠 Vos missions : Analyser l’existant et identifier les axes d’amélioration Proposer et structurer un plan d’action Coordonner les équipes impliquées (Structuring, Research, Dev, Trading, Legal – international) Concevoir un outil de suivi du processus opérationnel Assurer le reporting régulier auprès du management
Offre d'emploi
DEVOPS Platform Engineer
Craftman data
Publiée le
Administration linux
ELK
Kubernetes
6 mois
40k-45k €
450-570 €
Paris, France
LES PROFILS QUI NE CORRESPONDENT PAS A L'OFFRE NE SERONT PAS CONSULTÉS TT : 2j/s TJM selon profil Séniorité : 9 ans Expérience dans des missions longues en banque requise Pour ce projet d’infrastructure, la direction technique recherche un Platform Engineer en prestation externe pour l’intégration et l’administration des offres. La prestation s'effectuera au sein de la Platform Engineering dans la tribe « Automaisation & observabilité » Les objectifs de la prestation sont : • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les clients internes « ME » projet sur la livraison de leurs applications dans le cloud • Être support des « ME » en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les éditeurs • Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Automatiser le provisioning et la configuration des offres Platform Engineering • Développer des playbooks Ansible et des modules Terraform • Installation et Intégration des produits DT d’observabilité (Grafana, LOKI, Instana ELK, Prometheus) • Automatiser les tests et la validation technique • Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique de Transactis. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures du cloud provider de la société générale « GTE » pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des « ME » en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers entre Transactis et « GTE » • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage Compétences et expériences nécessaires • Systèmes Linux, CentOS, RedHat & Réseaux • Maîtrise et expérience des technologie liées aux architectures de conteneurisation (Terraform / ANSIBLE / Kubernetes / Docker / ArgoCD / Harbor / Istio / CI/CD – GIT /Jenkins …) • Grafana, LOKI, Instana ELK, Prometheus : administrations, installation, tunning • Maîtrise du fonctionnement d'un système réseau sous Linux • Maîtrise des architectures réseaux distribuées et résilientes • Méthodologies agile / Sprint • Capacité en vulgarisation des technologies cloud • Connaissance générale de l’architecture applicative Souhaitées : • Expériences bancaires et/ou moyens de paiements • Expérience de l’écosystème et de l’organisation de la Société Générale/GTE • Connaissance des procédures liées à la gestion des incidents, problèmes et changements • Anglais
Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum
RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint
1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
Offre d'emploi
Senior IT Project Manager – Programme Data
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Mission freelance
Consultant Corporate Finance (Lyon)
SQLI
Publiée le
Data management
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Mission freelance
Tech Lead DBT
CONCRETIO SERVICES
Publiée le
Data governance
DBT
12 mois
400-650 €
Île-de-France, France
Nous recherchons en urgence un Tech Lead / Architecte DBT pour rejoindre l'équipe de notre client et piloter la mise en place d’une nouvelle plateforme data basée sur DBT . Notre client souhaite industrialiser sa plateforme DBT. Jusqu’à présent, seules des POC ont été réalisés et nous avons besoin d’un profil expérimenté pour : Définir le socle et l’architecture cible Poser les bonnes pratiques et standards Expliquer comment construire et opérer une plateforme DBT Mettre en place des pipelines CI/CD garantissant une excellente expérience Data Engineer Missions principales Le Tech Lead DBT devra : Concevoir et construire la plateforme DBT from scratch Définir les bonnes pratiques, patterns et standards : naming, tests, linters, modèles, orchestration, etc. Mettre en place les pipelines CI/CD adaptés à DBT Garantir une expérience développeur optimale (DX) pour les data engineers Monter rapidement en compétence sur GCP (une carence identifiée mais surmontable) Collaborer quotidiennement avec les équipes pour assurer une intégration réussie Contribuer à un programme structurant autour de S3NS
Offre d'emploi
Data Analyst
KLETA
Publiée le
PowerBI
Reporting
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Offre d'emploi
Lead Developer .NET / Vue.js
RIDCHA DATA
Publiée le
.NET
API REST
Vue.js
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet applicatif stratégique , un Lead Developer .NET / Vue.js est recherché afin de piloter techniquement une équipe de développement. Le Lead Developer interviendra au sein d’une squad composée de 5 personnes : 2 développeurs Full Stack 1 Architecte 1 développeur Backend (mi-temps) 1 alternante L’objectif est d’assurer le pilotage technique des développements , garantir la qualité des livrables et accompagner l’équipe dans la réalisation des projets. Missions principalesPilotage technique Encadrer techniquement les développeurs afin de garantir le respect des standards et exigences technologiques . Participer aux choix techniques et à l’architecture applicative . Assurer la qualité du code et des bonnes pratiques de développement . Développement Participer activement aux développements applicatifs en .NET et Vue.js . Contribuer au développement et à la maintenance des applications existantes . Intervenir sur le développement d’ API et d’applications client lourd . Coordination et suivi Identifier et anticiper les points bloquants techniques . Assurer un reporting régulier auprès des parties prenantes du projet. Accompagner les membres de l’équipe dans leur montée en compétences. Environnement technique .NET Vue.js API REST Architecture applicative Développement client lourd Organisation du travail 3 jours sur site à Lyon 2 jours en télétravail
Mission freelance
Data Analyst Aix-en-Provence
CAT-AMANIA
Publiée le
Analyse
Data science
Data visualisation
2 ans
360-460 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe spécialisée dans l’analyse de la donnée, nous recherchons un Data Analyst expérimenté pour intervenir sur des problématiques d’exploitation et de valorisation des données. Au sein d’une équipe dédiée à l’analyse et à la fiabilisation des données, vous contribuerez à la mise en place d’analyses avancées et de cas d’usage métiers reposant sur l’exploitation de données multiples . Votre rôle consistera notamment à : Analyser et exploiter des jeux de données issus de différents domaines du système d’information Étudier la cohérence et l’impact des données dans les processus métiers Mettre en œuvre des analyses croisées permettant d’identifier des comportements atypiques ou des signaux faibles Développer des modèles analytiques ou prédictifs permettant d’améliorer la détection d’anomalies Concevoir et maintenir des produits data réutilisables (scripts, modèles, dashboards) Contribuer à la visualisation et à la restitution des analyses auprès des équipes métiers Respecter les normes et bonnes pratiques de développement et d’exploitation des données au sein de l’équipe. Vous interviendrez dans un environnement dynamique où la qualité, la structuration et la valorisation de la donnée sont au cœur des enjeux métier.
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à 30 minutes de Nantes (44), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : 30 minutes de Nantes (44) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Offre d'emploi
Chef de Projet IT Data Confirmé
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Offre d'emploi
Data Scientist Computer Vision
Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)
3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
Mission freelance
Data analyst monetique
Deodis
Publiée le
MySQL
1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Offre d'emploi
Consultant/te Senior Support & Configuration Collibra
Craftman data
Publiée le
AWS Cloud
Collibra
Databricks
3 mois
Île-de-France, France
Localisation : Région Parisienne Présence : 2 à 3 jours par semaine sur site (candidat hors Paris : 1 jour/mois) Démarrage : ASAP Durée : Jusqu’au 30/06/2026 (mission de 3 mois renouvelable) Contexte de la mission Dans le cadre du renforcement de sa plateforme de Data Gouvernance , notre client recherche un Consultant Senior Collibra Support & Configuration afin d’assurer l’administration avancée, le support technique de niveau 3 et l’optimisation de la plateforme Collibra. Le consultant interviendra également sur l’intégration de Collibra avec les systèmes internes et accompagnera les entités métiers dans leur adoption de la solution. Missions principales Administration et support avancé Administrer la plateforme Collibra (utilisateurs, rôles, groupes, permissions, domaines) Maintenir et faire évoluer le métamodèle Collibra Surveiller les performances de la plateforme Diagnostiquer et résoudre les incidents complexes ( support niveau 3 ) Assurer le suivi technique avec l’éditeur si nécessaire Intégration et automatisation Intégrer Collibra avec les systèmes internes et outils de l’écosystème data Configurer et maintenir les connecteurs Collibra Exploiter les API REST Collibra pour automatiser les processus Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées Configurer et optimiser les workflows Collibra Mettre en œuvre des mécanismes d’automatisation et d’optimisation continue Accompagnement des entités Assurer le support fonctionnel et technique N3 via JIRA Adapter les configurations et le modèle opérationnel aux besoins métiers Créer des tableaux de bord personnalisés (HTML) Animer des sessions d’intégration, de démonstration et de formation Accompagner les équipes dans leur onboarding sur Collibra Être le référent technique Collibra auprès des équipes Data Gouvernance Profil recherché Consultant senior spécialisé sur la plateforme Collibra , avec une forte expertise en administration, intégration et automatisation. Expérience : Minimum 5 ans d’expérience 3 à 5 ans minimum sur Collibra Maîtrise avancée de Collibra Gestion du métamodèle, workflows et ingestion de métadonnées Expérience avec Collibra Edge Intégration et développement API REST Collibra Scripting Python Compréhension des architectures d’intégration (connecteurs, API) Systèmes et outils data Bases de données : Oracle, SQL Server, PostgreSQL, Teradata Databricks SAP : SAP BW, SAP HANA, S/4HANA LeanIX Services cloud : AWS Outils BI : Power BI Outils JIRA Création de dashboards HTML Compétences fonctionnelles Bonne compréhension des concepts de gouvernance des données et de gestion des métadonnées Capacité à accompagner les métiers dans l’adoption des outils Bon relationnel et capacité à intervenir dans des environnements complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5834 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois