Trouvez votre prochaine mission ou futur job IT.
Mission freelance
[SCH] Prompt Engineer – Toulouse - 1024
Contexte : Mission Data / IA / Innovation orientée Prompt Engineering. Intervention au sein d’une petite équipe sur une plateforme d’hypervision et des cas d’usage IA variés (texte, résumé, classification, extraction). Missions : -Concevoir, tester, optimiser des prompts pour LLMs (GPT, Claude, Mistral, etc.) selon les cas d’usage : génération, résumé, classification, extraction. -Collaborer avec produit, marketing, support et dev pour traduire les besoins métiers en instructions exploitables par les modèles. -Expérimenter & veiller : zero-shot, few-shot, chain-of-thought, outils/LLMs/techniques émergentes. -Documenter & standardiser : bibliothèque de prompts réutilisables, bonnes pratiques. -Évaluer les performances : définir métriques, détecter biais/hallucinations/erreurs, proposer des mitigations. -Conseil et accompagnement des équipes sur l’adoption de l’IA générative. Objectifs & livrables : -Prompts efficaces et documentés + bibliothèque réutilisable. -Rapports d’évaluation (métriques, erreurs, biais) & recommandations d’amélioration. -Guides d’intégration / d’usage (patterns, garde-fous, checklist qualité). Profil recherché : - >8 ans d’expérience en data / logiciel, dont ≥2–3 ans sur des projets IA/LLM concrets. -Maîtrise des patterns de prompt engineering (zero/few-shot, CoT, ReAct, outils/fonctions, contraintes, garde-fous). -Solide pratique Python pour prototyper, tester et évaluer (datasets, métriques offline/online, A/B). -Capable d’industrialiser : versionner prompts, tracer expériences, packager en services (API), intégrer dans des workflows low/no-code.
Mission freelance
Product Owner IA - ML
Nous recherchons un Product Owner à forte sensibilité technique pour piloter : Le développement d’applications de gouvernance des modèles de Machine Learning La plateforme interne de mise à disposition de fonctionnalités d’IA générative (LLM Hub) Votre rôle sera clé pour orienter le produit, suivre sa construction, garantir la cohérence technique et maximiser la valeur pour les utilisateurs internes. Périmètre fonctionnel 1. Applications de gouvernance AI/ML Objectif : inventorier et suivre les modèles IA déployés sur différentes plateformes (Azure Machine Learning, Azure Databricks, AWS Databricks, AWS Sagemaker). Fonctionnalités principales : Récupération automatique des modèles et de leurs métriques Exposition des données via API Dashboard React dédié au suivi des modèles (mises à jour, performance, usage…) Application complémentaire de collecte des métriques d’inférence 2. Plateforme LLM Hub Objectif : centraliser l’accès et la consommation de LLMs (OpenAI, Mistral, Claude, via Azure OpenAI / AI Foundry et AWS Bedrock). Fonctionnalités actuelles : Mutualisation, supervision et optimisation de la consommation LLM (finops, reporting, provisioned throughput) Mise à disposition de briques IA clé en main (RAG, Text-to-SQL, WebSearch…) Application interne type ChatGPT Projections : Plateforme de création d’agents Élargissement des outils et plugins Nouvelles features dans le ChatGPT interne
Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
Offre d'emploi
DATA SCIENTIST NLP / IA GEN pour développement de projets IA Gen
Bonjour, Dans le cadre du centre d'expertise de la direction Data & IA, nous recherchons un(e) data scientist de 3 à 6 ans d'expérience. Il s'agira d'intervenir sur divers sujets : contribuer à l'analyse des use cases remontés par les entités du groupe , contribuer potentiellement à des benchmarks, prendre en charge une application d'évaluation RAG , contribuer à l'évaluation de prompt (équipe Expertise Transverse du Centre d'Expertise Data Science composée de 9 data scientists dont les projets DS s'articulent autour des outils NLP, Search, IA Générative). Les tâches à réaliser sont : - Analyse des cas d'usages - Cadrage, participation aux développement et suivi des projets - Prompt engineering - recommandation méthodologique - Evaluation des performances liées à l'utilisation de LLM, RAG - Partage autour de la veille technologique -Classification des Prompt. -Mutualiser cas d’usage - analyse des verbatim. -Tester et challenger la solution interne Contexte : Vous allez intégrer l'équipe qui centralise l'analyse des besoins ou des cas d'usage IA Gen. Il faut soit analyser la faisabilité des cas remontés , soit contribuer à des tests sur un périmètre restreint. Par ailleurs, il faut suivre l'usage d'une application d'évaluation RAG afin de répondre aux sollicitations utilisateurs. Expertises : - expert python - containerisation - CICD/MLOPS - API REST - Méthodes agiles - éventuellement groovy - LLM, NLP - VLLM, TensorRT > Python, maching learning - LLM, TGI, Aphrodite Engine, etc. Une expérience dans le domaine bancaire serait un plus
Mission freelance
Ingénieur IA & Sécurité
CONTEXTE Métiers Fonctions : ML ops, Ingénieur Spécialités technologiques : Intelligence artificielle,AI,Monitoring,IA generative, Open Source Cette mission s’inscrit dans le cadre d’un programme d’ingénierie et de sécurisation des systèmes d’intelligence artificielle générative et agentique. L’objectif est de tester, évaluer et intégrer des garde-fous (“AI guardrails”) destinés à renforcer la fiabilité, la conformité et la sécurité des modèles de langage (LLMs) et des agents IA. Le poste s’adresse à un profil confirmé (jusqu’à 6 ans d’expérience) en ingénierie IA, sécurité des modèles et MLOps, capable d’évoluer dans un environnement international et collaboratif, à la croisée de la technique, de la recherche et de la gouvernance IA. MISSIONS Responsabilités principales 1. Évaluation et tests de solutions de garde-fous IA - Identifier et évaluer des solutions de sécurité pour modèles LLM et applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir et exécuter des scénarios d’attaques adversariaux (prompt injection, exfiltration de données, jailbreaks, contournement de filtres). - Analyser les résultats des tests et produire des rapports d’évaluation détaillés : précision, compatibilité, facilité d’intégration. - Assurer le monitoring des performances et de la gestion mémoire des modèles testés. 2. Intégration et industrialisation dans les environnements IA - Concevoir des blueprints d’intégration pour incorporer les garde-fous dans les pipelines IA et stacks MLOps existants. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG et agentiques, en s’appuyant sur les plateformes cloud (Azure, AWS, GCP). - Collaborer avec les équipes de sécurité, de conformité et d’ingénierie pour définir des indicateurs de sécurité mesurables et des seuils de tolérance. - Garantir la compatibilité des solutions avec les frameworks et technologies Asiatech AI. - Contribuer à la documentation et à la mise en œuvre de pratiques d’IA responsable conformes aux standards européens (AI Act, NIST, ISO). 3. Partage de connaissances et support transverse - Animer des ateliers internes et sessions de sensibilisation à la sécurité des modèles IA. - Contribuer à la rédaction de livrables techniques et whitepapers sur la sécurisation des systèmes génératifs. - Assurer un rôle de référent technique sur les pratiques de test et d’évaluation de la robustesse des LLMs. - Favoriser la diffusion des bonnes pratiques au sein des équipes Data, ML et Sécurité. Livrables attendus - Framework de test des garde-fous IA : outils automatisés de simulation d’attaques et de mesure de robustesse. - Rapports d’évaluation technique : performance, latence, complexité d’intégration, fiabilité. - Plans d’intégration (blueprints) : architectures de référence et bonnes pratiques d’implémentation dans les workflows LLM/RAG. Documents de partage de connaissances : ateliers, documentation interne et publications techniques Expertise souhaitée - Très bonne compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en sécurité des IA : garde-fous, filtrage de contenu, validation de prompts, détection d’exfiltration de données. - Maîtrise des langages et outils : Python, Docker, CI/CD, monitoring, gestion de la mémoire, et services cloud IA (Azure, AWS, GCP). - Expérience confirmée en tests adversariaux, évaluation de modèles et simulation d’attaques. - Bonne compréhension des pratiques MLOps et des environnements d’industrialisation IA. - Connaissance des cadres de gouvernance IA et des principes de Responsible AI (AI Act, NIST, ISO 42001). -Rigueur scientifique et approche expérimentale des problématiques IA. - Capacité à collaborer efficacement avec des équipes techniques, sécurité et conformité. - Excellente communication écrite et orale, en anglais et en français. - Autonomie, esprit analytique et goût pour l’innovation. Profil recherché - Ingénieur ou expert IA confirmé (jusqu’à 6 ans d’expérience), spécialisé en sécurité des modèles, MLOps ou IA générative. - Expérience dans l’évaluation et le test de systèmes GenAI ou agentiques. - Bonne compréhension des environnements cloud et de la gestion opérationnelle des pipelines IA. - Capacité à intervenir sur des sujets mêlant R&D, sécurité, et gouvernance technologique.
Mission freelance
IA Engineer
Nous recherchons un(e) Ingénieur(e) / Développeur(euse) IA capable de concevoir, prototyper, industrialiser et maintenir des systèmes d’IA générative (LLM, RAG, Agents IA, etc.) en production. L’objectif : transformer des cas d’usage concrets en solutions robustes, scalables et sécurisées. Prototypage & expérimentation Benchmark des outils et modèles (agents IA, bases vectorielles, frameworks) pour sélectionner les plus pertinents. Conception et configuration de solutions IA (RAG, fine-tuning de LLM, embeddings, agents IA). Tests rapides et itératifs avec les équipes métiers pour valider la faisabilité. Industrialisation & mise en production Mise en production d’agents IA / LLM et intégrations robustes avec les systèmes internes (Salesforce, Covergo, Diabolocom, etc.). Développement d’APIs et d’architectures scalables. Mise en place d’outils d’observabilité (monitoring, logging, alerting). Application des bonnes pratiques de sécurité et conformité.
Mission freelance
Expert IA & Sécurité
CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement,Expert Spécialités technologiques : Intelligence artificielle, Open Source,MLOps,AI,IA generative Cette mission stratégique s’inscrit dans un programme de sécurisation et d’industrialisation des solutions d’intelligence artificielle générative et agentique. L’objectif principal est de tester, évaluer et intégrer des garde-fous (AI guardrails) dans les pipelines d’IA et environnements MLOps, afin d’assurer la robustesse, la conformité et la sécurité des applications basées sur des LLMs (Large Language Models). Le poste s’adresse à un profil senior en ingénierie IA / sécurité ML, capable d’évoluer dans un contexte international et de collaborer avec des équipes pluridisciplinaires (sécurité, conformité, data science, développement). MISSIONS Responsabilités principales 1. Évaluation et test des solutions de garde-fous IA - Identifier, tester et comparer des solutions de sécurité applicables aux LLMs et aux applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir des scénarios d’attaque avancés (prompt injection, exfiltration de données, jailbreaks) pour évaluer la résilience des modèles. - Analyser les résultats et produire des rapports d’évaluation détaillés (accuracy, intégrabilité, impact sur la performance). 2. Intégration et industrialisation - Définir des blueprints d’intégration pour l’implémentation des garde-fous dans les pipelines d’IA et environnements MLOps. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG (Retrieval-Augmented Generation) et agentiques. - Collaborer avec les équipes IA et sécurité pour assurer la cohérence technique, la scalabilité et la conformité réglementaire. - Participer à la conception de workflows sécurisés pour les environnements cloud (Azure, AWS, GCP) et hybrides. 3. Conception de scénarios d’attaque et d’évaluation - Élaborer des batteries de tests adversariaux simulant des menaces réelles. - Documenter les résultats et proposer des mécanismes de mitigation. - Contribuer à la définition d’indicateurs de sécurité mesurables pour le suivi de la performance des garde-fous. 4. Partage de connaissances et contribution stratégique - Conduire des ateliers internes et former les équipes aux meilleures pratiques de sécurité IA. - Rédiger des whitepapers techniques sur la sécurité des systèmes IA et les approches de défense proactive. - Participer à la diffusion des bonnes pratiques au sein de la communauté interne IA et sécurité. Livrables attendus - Framework de test des garde-fous IA – outils et scripts pour évaluer la performance et la robustesse des solutions. - Rapports d’évaluation détaillés – comparatifs techniques entre outils (open source / commerciaux). - Blueprints d’intégration – recommandations d’architecture pour l’intégration dans les pipelines LLM, RAG et agents. - Livrables de knowledge sharing – supports d’ateliers, documentation technique et contribution à la base de connaissances IA Sécurité. Expertise souhaitée Expertise technique - Excellente compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en IA générative et sécurité des modèles : guardrails, content filtering, prompt validation, data leakage prevention. -Maîtrise des outils et langages : Python, Docker, CI/CD, APIs cloud AI (Azure, AWS, GCP). - Connaissance approfondie des environnements MLOps et des pipelines de déploiement IA sécurisés. - Expérience en vulnerability testing, tests adversariaux et robustesse des modèles. - Bonne connaissance des principes de Responsible AI, des cadres de gouvernance et du AI Act européen. - Expérience avec les workflows Asiantech AI ou similaires (design d’architectures agentiques et intégration cloud). Compétences transverses - Solides capacités de communication et de rédaction technique (en anglais et français). - Capacité à interagir avec des équipes multiculturelles et à vulgariser des concepts techniques complexes. - Sens de la rigueur scientifique, esprit d’analyse et orientation résultats. - Capacité à travailler dans des environnements complexes et soumis à des contraintes réglementaires.
Mission freelance
Machine learning engineer
Concevoir, développer et industrialiser des modèles de Machine Learning et d’IA, du prototype à la production Construire et maintenir les pipelines de données et de MLOps (entraînement, évaluation, déploiement) Participer à l’architecture et au développement des produits IA (plateforme MLOps, solutions LLM comme RAGGA, GPT interne) Garantir la scalabilité, la robustesse et la performance des solutions IA Assurer la qualité du code via des tests automatisés, des revues et du monitoring Participer à la CI/CD sur GCP et GitHub selon les pratiques DevOps/MLOps Documenter les modèles, pipelines et configurations Gérer le cycle de vie complet des modèles (build & run)
Offre d'emploi
Consultant IA Gen H/F
Vous intégrerez le pôle IA de JEMS, leader européen de la Data, pour accompagner nos clients dans leurs projets de transformation et d'innovation par l'Intelligence Artificielle. Nos équipes développent et industrialisent des solutions d'IA générative et de systèmes agentiques (LLM, RAG, copilotes internes, orchestrateurs multi-agents), avec un ancrage fort dans des environnements Cloud et Data Platforms modernes. Dans ce rôle, vous interviendrez de bout en bout, de l'identification des cas d'usage à l'industrialisation. Vous aurez la charge de : • Mener des ateliers de cadrage IA avec les parties prenantes métiers et IT • Identifier et formaliser des cas d'usage concrets (gains, contraintes, faisabilité) • Concevoir et développer des services backend en Python intégrés à des architectures microservices • Déployer et piloter des MVP IA (LLM, RAG, systèmes agentiques, orchestrateurs, copilotes) • Intégrer et optimiser des pipelines de données pour l'IA générative • Industrialiser des solutions IA : passage à l'échelle, robustesse, monitoring et performance en production • Accompagner les clients dans la gouvernance IA (sécurité, RGPD, éthique, budget, cloud souverain) • Contribuer à la construction d'une offre IA différenciante au sein de JEMS, reconnue pour son innovation et sa R&D Référence de l'offre : qq5r7wnxlo
Mission freelance
229374/Prompt Engineer Python IA générative- Toulouse (no remote)
Prompt Engineer Python IA générative - Toulouse Mission ciblé Data / IA/ Innovation / Produit => Prompt Engineer Goals and deliverables Conception de prompts efficaces : Rédiger, tester et optimiser des prompts pour interagir avec des modèles d’IA (LLMs comme GPT, Claude, Mistral, etc.). Adapter les prompts à différents cas d’usage : génération de texte, résumé, classification, extraction d’informations, etc. Collaboration avec les équipes métiers : Travailler avec les équipes produit, marketing, support ou développement pour comprendre les besoins et concevoir des solutions IA adaptées. Traduire les besoins métiers en instructions exploitables par les modèles. Expérimentation et veille technologique : Tester différents modèles et techniques de prompting (zero-shot, few-shot, chain-of-thought, etc.). Suivre les évolutions des modèles de langage et des outils IA. Documentation et standardisation : Documenter les prompts, les résultats et les bonnes pratiques. Créer une bibliothèque de prompts réutilisables. Évaluation des performances : Mettre en place des métriques pour évaluer la qualité des réponses générées. Identifier les biais, hallucinations ou erreurs et proposer des solutions. Expected skills Outils low-code et no-code Expert Python Expert data science Expert IA générative Expert
Offre d'emploi
Développeur Backend JS (CDI)
À propos du rôle Au sein de l’équipe backend, vous faites évoluer une plateforme event-driven (microservices, REST/Fastify, gRPC, RabbitMQ, SurrealDB) et des intégrations critiques (Clerk, Stripe, AWS). Nous recherchons un profil senior capable de prendre l’ownership de domaines clés et, idéalement, d’évoluer vers un rôle de lead développeur. Vous avez une forte expérience de développement produit. Missions principales Contribuer aux décisions d'architecture Développer l'API, les services backend et gRPC en TypeScript/Node.js Implémenter la logique métier : billing, chat IA streaming, marketplace de Kins, missions Concevoir et implémenter des flux événementiels asynchrones avec RabbitMQ Optimiser les requêtes SurrealDB et maintenir les migrations Intégrer les services du SDK pour les fonctionnalités IA (appels LLM, tracking des coûts) Assurer la fiabilité en production : monitoring, debugging, resilience patterns Stack Backend : TypeScript, Fastify, SurrealDB, gRPC, RabbitMQ, Redis, AWS, Railway Frontend : React 19, Vite, TanStack Query, Zustand, Tailwind Outils : Jest, Vitest, pnpm, ESLint, Husky
Offre d'emploi
AI Engineering - LangGRAPH
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la contribution à la mise en place de fonctionnalités datascience. Les missions sont: 1- Conception et développement d’agents autonomes avec LangGraph : - Architecturer des agents conversationnels ou décisionnels (ex: agents multi-outils, boucles de rétroaction, mémoire contextuelle). -Intégrer des modèles de langage (LLMs) via LangGraph pour des tâches complexes (ex: raisonnement multi-étapes, orchestration de workflows). -Optimiser les stratégies de prompt engineering et les mécanismes de contrôle (ex: function calling, tool use, plan-and-execute). 2- Intégration avec des pipelines ML/MLOps existants : -Connecter les agents LangGraph à des modèles custom (ex: fine-tuned LLMs, modèles de séries temporelles) via APIs ou pipelines. -Automatiser le versioning des agents et leur déploiement. 3- Ingénierie des données et features pour les agents : -Construire des pipelines de données pour alimenter les agents -Développer des mécanismes de mémoire (ex: bases de connaissances dynamiques). -Optimiser les coûts et la scalabilité (ex: caching des réponses, model distillation pour les edge cases). 4- Tests et robustesse : -Mettre en place des tests automatisés pour les agents (ex: simulations de dialogues, injection de fautes). -Surveiller les dérives comportementales (ex: hallucinations, boucles infinies) avec LangSmith. -Documenter les limites et cas d’usage (ex: matrice de risques pour les décisions critiques).
Mission freelance
Developpeur Fullstack (Python / Javascript) (H/F)
Nous recherchons un Développeur Full Stack pour participer au développement d'un système de chatbot . Il/elle sera responsable de la construction des composants front-end et back-end du système, garantissant une expérience utilisateur fluide et des capacités back-end robustes . Ce rôle implique la mise en œuvre d'interfaces conversationnelles et l'intégration de mécanismes de retour d'information utilisateur. Il comprend également l'intégration de composants tiers et le déploiement dans l'infrastructure interne. Le développeur travaillera principalement avec Python pour le back-end et Javascript pour le front-end , en tirant parti des frameworks LLM (Large Language Model) de pointe pour créer des solutions de chatbot intelligentes et conviviales. Activités : Architecture du Système & Développement Améliorer (éventuellement reconcevoir ) et étendre une architecture full-stack existante pour les applications de chatbot. Étendre les composants front-end interactifs et adaptés aux mobiles . Optimiser et développer des services back-end en Python pour gérer le dialogue, l'intégration d'API et la persistance des données. Permettre l'intégration avec des composants tiers et le déploiement dans l'infrastructure interne. Intégration de la Boucle de Rétroaction (Feedback Loop Integration) Développer des mécanismes de capture du retour d'information utilisateur et enregistrer cette information dans le système de gestion des données. Collaboration & Documentation Travailler en étroite collaboration avec les chercheurs en IA pour traduire les exigences en solutions techniques. Documenter la conception du système, le code source et les API pour la maintenance future et l'évolutivité.
Offre d'emploi
Ingénieur IA
L'équipe de notre client est composée de 10 équipiers et est basée à Nantes. Ils travaillent en mode Agile. Nous recherchons une personne pour nous accompagner à la mise en place du Socle LLM. Cette demande de renfort a pour objectif d'apporter les compétences que le client n'a pas dans son équipe (ce qui implique que la personne doit ABSOLUMENT avoir ces compétences) Missions : Participer à la mise en place d'un LLM permettant de mettre à disposition les LLM identifiés tout en garantissant l'homogénéité de leur usage. La mission consistera donc à définir l'architecture à mettre en oeuvre et à développer les composants qui permettront de qualifier, exposer et instancier les modèles tout en assurant leur supervision. Nous n'utilisons pas directement les modèles que nous mettons à disposition ; ces modèles sont utilisés par les équipes métiers en charge des usages. De plus, cette mission n'intègre pas le développement de modèles. Vous devrez assister les développeurs fonctionnels/usages sur la conception des solutions bancaires en utilisant les outils développés par l'équipe, aider à la résolution d'incidents et le suivi de production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.