L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 907 résultats.
Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Publiée le
Azure
Databricks
Dataiku
3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Offre d'emploi
Business Analyst Data & IA
Publiée le
Business Analysis
Dataiku
IA
1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Mission freelance
Coordinateur Anomalies & Tests RUN SI
Publiée le
Data analysis
Dynatrace
JIRA
24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Offre d'emploi
Développeur Python & IA
Publiée le
Angular
Django
PostgreSQL
3 ans
50k-60k €
450-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un consultant développeur Python ayant une bonne connaissance de l’IA pour une mission chez un de nos clients dans le secteur de l’asset management. La mission sera de longue durée (3 ans), avec un démarrage ASAP, et 2/3 jours de télétravail par semaine. Tâches et missions : - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de Données, - Prendre en charge et faire évoluer les outils internes basés sur des systèmes distribués cloud natifs, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichir l’automatisation des tests, - Respect des délais impartis. - Contribuer à l’évolution et au maintien de la plateforme, pour l’intégration des use case IA dans la plateforme - Faire des applications à l’échelle, avec du passage en prod et du suivi de production, dans le respect des critères de qualité pour la production. Stack technique : Django React sur la partie front pour intervenir sur la solution interne pour le Big data et l’IA. L’équipe est composée de 12 personnes et est divisée en 2 parties : la première sur l’innovation technologique IA, l’autre partie est en charge du maintien de l’évolution de l’outil qui vient mettre à l’échelle les innovations d’IA. Ils déploient des solutions à l’ensemble d’Amundi et aux externes également.
Mission freelance
Senior Consolidation & OneStream - Asset Management
Publiée le
6 mois
500 €
75001, Paris, Île-de-France
Contexte & objectifs Au sein d'une entité opérationnelle d'un grand gestionnaire d'actifs, vous participerez à la Phase 4 de développement d'une plateforme Data visant à consolider les données des filiales . Cette phase se concentre sur le P&L (les phases 1 à 3 ont porté sur les AUM ). En parallèle, vous accompagnerez la holding Finance dans la migration de l'outil de consolidation de SAP BFC vers OneStream . Missions & livrables Déterminer le périmètre de consolidation dans deux normes de reporting . Définir et valider les retraitements IFRS et prudentiels (Solvabilité 2) pour les entités consolidées. Effectuer la consolidation des entités ad hoc . Valider les liasses de consolidation et passer les écritures top conso afférentes. Élaborer les états financiers consolidés (IFRS / prudentiel S2) : bilan, compte de résultat, résultat global, TFT, annexes, tableau de variation des capitaux propres. Réaliser des revues analytiques des postes des états financiers et des variations de capitaux propres. Rédiger et diffuser les instructions de consolidation dans les deux référentiels de reporting. Contribuer au pilotage du projet (planning, risques, dépendances) et à l' accompagnement au changement dans le cadre de la migration vers OneStream . Environnement & outillage OneStream (cible) ; SAP BFC (outil actuel - migration). Plateforme Data groupe (phase orientée P&L , précédentes sur AUM ). Profil recherché +9 ans d'expérience en consolidation comptable au sein de groupes financiers / asset management. Maîtrise des référentiels IFRS et Solvabilité 2 . Pratique confirmée des liasses , écritures top conso , états financiers consolidés . Expérience de migration d'outil de consolidation et de pilotage de projet ; OneStream requis (exposition à SAP BFC appréciée pour la bascule). Connaissance du secteur Asset Management . Soft skills : autonomie, rigueur, sens du service, capacité à embarquer les parties prenantes (finance, IT, filiales).
Offre d'emploi
Administrateur base de données
Publiée le
Elasticsearch
Google Cloud Platform (GCP)
Greenplum
1 an
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Offre premium
Mission freelance
Développeur Dynamics 365 F&0 (H/F) - 06
Publiée le
Microsoft Dynamics
3 mois
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Dans le cadre de la migration de son ERP AS400, notre client recherche un développeur qui pourra intervenir sur des développements et challenger les chiffrages de l'intégrateur Développement & Expertise technique Développer sur Dynamics 365 F&O en X++ et effectuer les personnalisations nécessaires Réaliser des extensions et customisations respectant les bonnes pratiques Microsoft Intervenir sur les Data Entities, workflows, tables, formulaires, classes et rapports Participer à la conception technique (TDD) et challenger les solutions proposées Contribuer aux travaux d’intégration : API, Power Platform, middleware, Dataverse… Pilotage technique & coordination Challenger les chiffrages, charges et choix techniques de l’intégrateur Analyser les UAT, corriger les dysfonctionnements, optimiser les performances Vérifier la cohérence entre besoins métiers, solution proposée et implémentation Fournir des recommandations techniques au client pour limiter l’over-customisation Participer aux comités techniques et apporter un regard expert Qualité & bonnes pratiques Documenter les développements et respecter l'ALM (Azure DevOps / Git) Garantir le respect des normes Microsoft et de l’architecture F&O Contribuer à sécuriser la maintenabilité et l’évolutivité du système Proposer des alternatives plus légères lorsque cela est pertinent (Power Automate / low-code)
Mission freelance
Devops, Pipeline CI/CD
Publiée le
Angular
Ansible
Confluence
3 ans
300-400 €
Tours, Centre-Val de Loire
Télétravail partiel
L’équipe « Socle PaaS » a en charge l’administration des outils de la chaîne de Delivery client CI/CD et CT. Dans le cadre de ces missions, nous souhaitons sécuriser les effectifs de l’équipe en intégrant une nouvelle personne en vue du remplacement d’un acteur clé mi-2026 arrivant au terme de sa mission. Sa mission sera d’être : - Participer à la mise en œuvre technique des évolutions / maintenances du produit, - Apporter son expertise dans la conception des évolutions du produit, - S’assurer de la qualité logicielle produite, - Assurer les mises en production des évolutions, - Assurer le maintien opérationnel du produit, - Respecter les processus client. Livrables attendus : - Réalisation des développements en apportant la documentation technique et fonctionnelle associée - Fournir les scénarios et compte rendu de tests réalisés - Donner de la visibilité à son management sur l’avancement de ces travaux via la complétude du process agile
Offre d'emploi
chef de projet junior
Publiée le
Rédaction des spécifications fonctionnelles
12 mois
Tours, Centre-Val de Loire
Dans le cadre d’un programme de transformation important impliquant le transfert et l’harmonisation du Système d’Information de plusieurs établissements, nous recherchons un(e) Chef(fe) de Projet SI pour renforcer l’équipe en charge du pilotage et de la coordination opérationnelle. La mission s’effectue au sein d’un pôle Coordination et Relation Métier, en lien direct avec la Direction de Projet et de nombreux acteurs internes et externes. Vos missions Vous interviendrez sur un portefeuille de projets SI liés au déploiement progressif d’un nouvel environnement informatique au sein des établissements. Pilotage et coordination : Conduire plusieurs projets SI en parallèle, en respectant les délais et les budgets. Coordonner les échanges entre les équipes internes, les établissements, les prestataires et les partenaires. Organiser et animer les instances de suivi. Accompagner la préparation et la mise en production des solutions, incluant le planning et la coordination terrain. Production de livrables : Rédiger les notes de cadrage. Produire les spécifications fonctionnelles détaillées. Elaborer les plans de test et les cahiers de recette. Construire la planification des opérations de bascule. Assurer un reporting régulier et structuré. Rédiger les comptes rendus des comités. Contribution au programme : Identifier risques, dépendances et points de vigilance. Proposer des solutions et améliorations pour fluidifier les déploiements. Garantir la bonne communication entre les différents acteurs. Profil recherché Bac+3 minimum en gestion de projet ou informatique. 3 à 5 ans d’expérience sur des fonctions similaires (projets SI, déploiements multi-sites, coordination). Maîtrise des méthodes de gestion de projet et des outils associés. Bonne capacité de rédaction et de formalisation. Capacité à appréhender rapidement un nouvel environnement SI. Une expérience dans le secteur des établissements ou du domaine de la santé constitue un plus apprécié. Qualités attendues Rigueur, organisation, autonomie. Excellentes compétences relationnelles et rédactionnelles. Capacité à travailler avec une diversité d’interlocuteurs. Sens de l’analyse, gestion des priorités, proactivité. Aisance dans les environnements dynamiques. Conditions de mission Lieu de mission : Tours Démarrage souhaité : début 2026 Télétravail possible deux jours par semaine Déplacements ponctuels à prévoir en France métropolitaine Durée de mission : 15 mois
Offre d'emploi
Développeur PowerApps & Power Automate
Publiée le
Power Apps
Power Automate
3 ans
40k-56k €
400-550 €
Île-de-France, France
Besoin d'un expert PowerPlatform (Power Apps et power Automate) pour maintenance et développement d'applications à destination des collaborateurs Palatine. Savoir analyser le besoin métier. - Concevoir et développer des applications PowerApps adaptées aux besoins des utilisateurs. - Mettre en place des flux automatisés avec Power Automate pour améliorer l’efficacité opérationnelle. - Communiquer avec les différents métiers. - Rédiger les différents livrables. - Assurer la formation et l’accompagnement des équipes métiers dans l’utilisation des solutions PowerPlatform. - Administrer et sécuriser l’environnement PowerPlatform (gestion des environnements, gouvernance, conformité). - Participer à la veille technologique et proposer des améliorations continues. - Partager les connaissances avec l’équipe en place Excellente maîtrise des outils PowerPlatform (PowerApps, Power Automate, Dataverse). Connaissance du SQL. Compréhension des architectures Microsoft 365 et Azure, et idéalement celles du Groupe BPCE Capacité à travailler en mode projet et en collaboration avec les équipes métiers. Être autonome, rigoureux. Avoir la capacité à vulgariser les concepts techniques. Avoir un bon relationnel
Offre d'emploi
Développeur C++ – Computer Vision & AI
Publiée le
45k-65k €
Marignane, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Un poste stratégique au cœur de l’innovation aéronautique Vous intégrez une équipe R&D de haut niveau pour participer au développement de systèmes embarqués intelligents de nouvelle génération. Vous travaillerez sur des projets mêlant C++, traitement de signal, fusion multi-capteurs (radar, lidar, vidéo, IMU) et intelligence artificielle, avec une forte exigence en robustesse et en performance temps réel. 2. Un environnement technique de pointe, entre IA et ingénierie système Vous développez des algorithmes d’interprétation de données capteurs, d’analyse d’images et d’optimisation logicielle pour des plateformes embarquées. Vous collaborez avec des experts systèmes, capteurs et IA pour créer des solutions de perception autonome. Vous appliquez des méthodes rigoureuses de system engineering (SysML, exigences, MBSE...). 3. Des projets concrets, des perspectives d’évolution Poste basé dans le sud-est de la France, avec des livrables à forte visibilité pour des clients de référence dans l’aéronautique. Selon vos compétences et votre appétence, vous pourrez évoluer vers des rôles de référent technique IA, ingénierie système ou architecte logiciel embarqué.
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Développeur Backend .NET / API & Webservices
Publiée le
.NET CORE
GitLab CI
Kubernetes
18 mois
100-350 €
Orléans, Centre-Val de Loire
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Devops, API Le prestataire intégrera une équipe de développement composée de 2 internes, 1 prestataire et 1 apprenti. La mission vise à renforcer l’équipe en charge de : (Sécurité Opérationnelle, Annuaire et PKI) dans ses activités de développement backend, principalement autour d’API, de webservices et de composants techniques liés au poste de travail et aux annuaires. L’environnement de travail suit un cadre Agile / Kanban, avec une forte orientation qualité, sécurité et industrialisation. MISSIONS - Participer au développement backend en .NET (fort focus API / webservices, aucun développement de site web). - Contribuer à la conception, l’évolution et la maintenance des services techniques utilisés par les applications internes. - Participer à la mise en place progressive d’une culture DevOps au sein de l’équipe. - Assurer le support N3 sur le périmètre applicatif. - Prendre part aux travaux autour des environnements Windows, Linux, Active Directory, EntraID, bases SQL et composants de sécurité. Développement : - Concevoir et développer des services backend : APIs, webservices, modules techniques. - Produire des dossiers de conception et spécifications. - Assurer la qualité du code et participer aux revues. - Interroger des BDD, Active Directory, EntraID via API/Webservices. MCO / Support : Prendre en charge le support N3 : analyse, diagnostic, résolution des incidents. Maintenir en condition opérationnelle les applications et services développés. Architecture & Evolutions : - Contribuer à l’évolution de l’architecture technique du domaine. - Être force de proposition sur les patterns de développement et améliorations DevOps. Collaboration : - Travailler en étroite collaboration avec les développeurs internes. - Participer aux rituels Kanban, partager l’avancement, documenter les travaux. - Rendre compte régulièrement à la direction technique. Expertise souhaitée - Très bonne maîtrise du développement backend .NET (API, Webservices). - Bonus apprécié : maîtrise de C# avancé. - Notions en .NET Core sans que cela soit l’axe principal. - Bonnes bases SQL. - Connaissance des annuaires Active Directory et EntraID (Azure AD). - Bonus Connaissance Windows (poste de travail, serveurs) et Linux SLES. - DevOps (bonus important) - Culture DevOps : compréhension de l’industrialisation et bonnes pratiques. - CI/CD : GitLab CI, GitHub Actions, Azure DevOps, Jenkins. - Docker (obligatoire), Kubernetes (apprécié). - Gestion des artefacts, tests automatisés, stratégies de déploiement (blue/green, canary). Soft Skills - Excellentes capacités rédactionnelles. - Bon esprit d’équipe, communication claire. - Autonomie, rigueur et capacité à rendre compte.
Mission freelance
Data engineer (H/F)
Publiée le
Dataiku
ELK
1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Offre d'emploi
Développeur Python/DevOps & Chatbot IA
Publiée le
Chatbot
DevOps
Kubernetes
3 ans
40k-73k €
400-580 €
Île-de-France, France
Prestations demandées Missions DevOps / Backend 1. : API et services principaux Développer l’API centrale permettant l’interfaçage entre le chatbot, les assistants métiers et les services de gestion de fichiers. Implémenter le service de gestion des conversations : historique, anonymisation/suppression, continuité conversationnelle. 2. Gestion des fichiers : Concevoir le traitement et le stockage sécurisés des fichiers utilisateurs (txt, PDF, docx, pptx, xlsx). Intégrer des mécanismes d’analyse et d’enrichissement des fichiers pour l’exploitation dans les assistants. 3. Contexte et personnalisation : Développer un module d’analyse et d’enrichissement du contexte (user/entity) pour optimiser la pertinence des réponses. Gérer les prompts : création de templates, favoris, personnalisation par entité ou collaborateur. 4. Orchestration et assistants : Mettre en place un service d’orchestration multi-assistants (agents spécialisés, fallback, exécution d’actions). Développer un système de gestion des widgets et actions (web search, rendu mermaid, outils interactifs). 5. Monitoring et conformité : Implémenter le feedback utilisateur, la collecte de KPIs et le suivi des délais de réponse. Administrer les mécanismes de contrôle d’accès, garde-fous et politiques d’usage (policy-based). Mettre en œuvre les logs applicatifs, l’audit des actions et les traces conformes aux exigences du Groupe (sécurité, conformité, confidentialité).
Mission freelance
Développeur Senior Grid Computing & Cloud – HPC / Pricing (H/F)
Publiée le
Bash
C/C++
Calcul hautes performances (HPC)
1 an
550-710 €
Île-de-France, France
Nous recherchons un Développeur Senior expérimenté en calcul distribué, HPC et Cloud , pour intervenir au sein d’une équipe en charge des moteurs de calcul utilisés pour valoriser des produits dérivés complexes via des méthodes numériques avancées (dont Monte Carlo). Vous rejoindrez une équipe pluridisciplinaire en charge de la maintenance, de l’optimisation et de l’évolution des solutions de distribution de calcul utilisées dans un environnement critique, fortement orienté performance et fiabilité. Vous participerez notamment à l’intégration d’un nouveau moteur open-source (ArmoniK), en lien direct avec les IT Quants et l’éditeur. Missions principales : 🔹 Intégration & migration Accompagner les IT Quants dans la migration de leurs librairies de pricing de Datasynapse vers ArmoniK. Assurer le rôle d’intermédiaire technique entre l’éditeur et l’équipe interne. Participer à des Proof of Concept pour valider les migrations applicatives. 🔹 Développement & optimisation Contribuer au développement et à l’optimisation d’outils et pipelines de calcul distribués. Participer à des travaux R&D : GPU, parallélisation, optimisation mémoire, HPC. Maintenir et améliorer les composants Python/Shell/OpenShift/Sqlalchemy. 🔹 Support & production Assurer le support de niveau 3 sur les solutions critiques. Participer à la maintenance corrective et évolutive des moteurs de calcul. Contribuer à l’amélioration des processus DevOps et CI/CD.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
1907 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois