L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 046 résultats.
Mission freelance
Data Scientist Sénior
Publiée le
Data science
Python
Rédaction technique
18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
Mission freelance
Senior Data Scientist IA / LLM
Publiée le
LangChain
Large Language Model (LLM)
Python
12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Mission freelance
Data Scientist
Publiée le
API
autonomie
Python
12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Offre d'emploi
Data Product Manager
Publiée le
Data management
1 an
40k-45k €
270-540 €
Paris, France
Télétravail partiel
Mission Overview La mission au sein du Data office a pour objectif d'accompagner la transformation autour de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur. Construction d'un Kit/book de déploiement des data products auprès des producteurs et consommateurs (méthodologie, documentation …) Animation de meetings de vulgarisation (Support & CR) Préparation et organisation d'un Meet Up d'acculturation (jalon mai 2026)
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Offre d'emploi
Administrateur Bases de Données SQL Server – Confirmé (H/F)
Publiée le
Microsoft SQL Server
Microsoft Windows
Powershell
1 an
Paris, France
Contexte Le département Bases de Données Distribuées de la Direction Infrastructure renforce ses équipes et recherche un Ingénieur DevOps / Administrateur de bases de données SQL Server confirmé pour intervenir sur des environnements critiques de production. La mission s’inscrit dans un contexte infrastructure, haute disponibilité et automatisation , avec des exigences élevées en matière de performance, sécurité et continuité de service . Objectif de la mission Administrer, exploiter et faire évoluer les environnements SQL Server , tout en contribuant à l’automatisation et à l’industrialisation des pratiques via des outils DevOps. Missions principalesAdministration & exploitation SQL Server Installer, configurer et maintenir les moteurs SQL Server et les clusters Windows . Administrer les environnements Always On (haute disponibilité). Gérer l’exploitation quotidienne : Support utilisateurs Gestion des incidents Suivi du PCA / PRA Optimiser les performances SQL Server . Gérer la sécurité , les accès et les licences . Automatisation & DevOps Développer et maintenir des scripts d’automatisation en PowerShell , DSC et .NET . Contribuer au développement et à l’utilisation d’ API . Utiliser et intégrer les outils DevOps : Git, Artifactory, Jenkins, Ansible . Exploitation & supervision Mettre en œuvre et exploiter les sauvegardes et restaurations . Participer à la supervision des plateformes (outils type Zabbix ). Assurer une astreinte régulière (environ 1 semaine toutes les 7 semaines). Qualité & amélioration continue Participer aux études d’évolution des infrastructures. Proposer des axes d’amélioration des performances et de la fiabilité . Assurer une veille technologique continue. Environnement technique SGBD : SQL Server Haute disponibilité : Always On Systèmes : Windows, clusters Windows Automatisation / DevOps : PowerShell, DSC, .NET, Git, Jenkins, Artifactory, Ansible Virtualisation : VMware Supervision : Zabbix (ou équivalent) Composants complémentaires : SSAS Compétences techniques Impératives : SQL Server – Expert Always On – Expert Systèmes Windows – Confirmé PowerShell – Expert Appréciées : DSC / .NET Développement d’API Outils DevOps SSAS VMware Supervision (Zabbix ou équivalent) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Offre d'emploi
Responsable Activité « Mainframe Cluster CXI
Publiée le
Data management
1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Offre d'emploi
Expert Python / Innovation & Services Cloud
Publiée le
Architecture
CRM
DevSecOps
1 an
Paris, France
Contexte Dans le cadre d’une transformation digitale d’envergure internationale , la mission s’inscrit au sein d’un groupe leader de l’assurance présent dans plus de 80 pays. L’objectif est de fournir des services IT standardisés à l’ensemble des entités du groupe, en améliorant l’excellence opérationnelle, l’alignement du portefeuille applicatif et l’efficacité des coûts. La mission contribue à l’évolution d’une plateforme SaaS de gestion de contenus (Content Management eXperience – CMX) , conçue comme une solution clé en main, exposant des API REST et une interface web, conforme aux standards du groupe en matière d’ architecture, sécurité, conformité et résilience . L’enjeu principal est d’ enrichir la plateforme par de nouvelles fonctionnalités, des services innovants (notamment basés sur l’IA générative) et d’ accélérer les migrations Cloud . Objectif de la mission Maintenir, faire évoluer et enrichir les outils Python cœur de plateforme , tout en concevant de nouveaux services à forte valeur ajoutée (IA, sémantique, cloud-native), en lien étroit avec les équipes métiers et techniques. Missions principales Développement & évolution des outils cœur Maintenir, auditer, stabiliser et refactoriser les outils Python existants . Garantir un code propre, conforme PEP8 , testé et documenté. Harmoniser et industrialiser de nouveaux modules (ex. traduction de règles métiers en workflows techniques automatisés, stratégies de gestion et d’archivage de fichiers). Innovation & prototypage Concevoir et piloter des sprints d’innovation rapides . Prototyper de nouveaux services basés sur des cas d’usage concrets : IA générative Tagging automatique Recherche sémantique Contrôle qualité des contenus Challenger les besoins métiers et concevoir des proofs of concept (POC) . Évaluer la faisabilité technique et proposer des roadmaps de mise en production . Collaboration & bonnes pratiques Travailler étroitement avec les métiers, product managers et ingénieurs . Réaliser des revues de code et partager les bonnes pratiques (clean code, TDD, CI/CD). Accompagner et mentorer les équipes sur les standards de développement. DevOps & Cloud Contribuer aux pipelines CI/CD . Participer aux déploiements automatisés et à l’ Infrastructure as Code (Terraform, CloudFormation). Environnement technique Langages & développement Python (avancé) Git, Bash Java, JavaScript (React / Vue) Data, IA & sémantique Pandas, regex Parsing JSON / XML Prompt engineering NoSQL (MongoDB, MarkLogic) RDF / SPARQL, graphes Cloud & DevOps AWS (S3, Lambda) CI/CD : Jenkins, GitLab CI Terraform, CloudFormation OpenShift, Kubernetes Artifactory, OpenLDAP Qualité & tests Pytest Frameworks BDD (Behave, Cucumber) Selenium Sécurité & qualité de code : SonarQube, Snyk
Mission freelance
Customer Data Modeler
Publiée le
Big Data
6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Mission freelance
Consultant RGPD (H/F)
Publiée le
Data management
RGPD
6 mois
400-500 €
Paris, France
Télétravail partiel
Contexte projet / client : Mission de renfort dans le cadre d’un remplacement au sein d’une organisation gérant des projets de conformité et de protection des données, avec un environnement réglementaire exigeant. Missions principales Assurer le suivi et la mise en conformité des processus liés à la gestion et à la protection des données. Participer aux analyses d’impact, évaluations de risques et contrôles internes associés. Contribuer à la rédaction et à la mise à jour de la documentation réglementaire. Collaborer avec les équipes internes pour garantir l’application des bonnes pratiques. Accompagner la continuité des activités pendant la phase de remplacement.
Offre premium
Mission freelance
Référent Data
Publiée le
Architecture
Data governance
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75
Publiée le
Apache Spark
Dataiku
PySpark
6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Mission freelance
Chef de Projet Data & BI (H/F)
Publiée le
BI
Big Data
SQL
1 an
400-580 €
Arcueil, Île-de-France
Télétravail partiel
Si la data et la BI sont pour toi une passion plus qu’une compétence, rejoins notre univers technique qui t’attend de pied ferme avec ce poste de Chef de Projet Data & Expert BI ! 🚀 Ton challenge si tu l’acceptes : Piloter des projets Data / BI de bout en bout, du recueil du besoin métier jusqu’à la mise en production Animer des ateliers avec les métiers (PO / ITBP) et challenger les besoins fonctionnels Concevoir et faire évoluer les architectures Data (on-prem / Azure) Modéliser les entrepôts de données (Data Warehouse / Datamart) Développer et superviser les flux ETL (SSIS), les procédures T-SQL et les modèles SSAS Tabular Créer et optimiser des rapports Power BI (performance, ergonomie, gouvernance) Garantir la qualité, la fiabilité et la performance des données en production
Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Coordinateur Data H/F
Publiée le
3 mois
75001, Paris, Île-de-France
Vous êtes actuellement disponible et recherchez une nouvelle mission en Data ? Veuillez trouver ci-dessous une opportunité de Coordinateur Data H/F Lieu : Paris Démarrage: Début Janvier Durée: 3 Mois Type de contrat: Intérim Mission : L'objectif de cette mission de transition est de saisir, valider et maintenir des données précises et fiables. Tâches : * Créer et maintenir les enregistrements des produits, fournisseurs et clients dans les systèmes * Garantir que toutes les données sont précises, complètes et conformes aux normes internes. * Traiter les configurations et modifications des produits conformément * Effectuer des vérifications de données courantes pour identifier et corriger les erreurs. * Signaler les problèmes complexes * Fournir des mises à jour de données aux parties prenantes * Réaliser des rapports et tableaux de bord Compétences: Administration de données dans le secteur industriel Maitrise d'excel et Google Sheets connaissance de systèmes ERP Expérience en gestion de données Bon anglais Pour plus d'informations, merci de m'envoyer votre CV.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
3046 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois