Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Scientist GCP adtech
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.
Mission freelance
MLOps / Azure AI
Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Mission freelance
Product Owner IA
Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.
Mission freelance
POT8608-Un Product Owner IA sur Grenoble
Almatek recherche pour l'un de ses clients, un PO IA sur Grenoble. Context : Le prestataire sera responsable de la définition, de la priorisation et de la mise en œuvre des fonctionnalités de la plateforme, afin de soutenir : Les workflows classiques de machine learning, Les outils low-code/no-code destinés aux « citizen developers » et aux utilisateurs métiers. Cela implique une collaboration étroite avec les équipes d’ingénierie, de MLOps, de gouvernance des données et de conformité, afin de garantir des solutions robustes, évolutives et centrées sur l’utilisateur. Livrables attendus: Définition et priorisation du backlog: Établir et maintenir un backlog clair, exploitable et aligné sur les besoins des utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités de plateforme. Contribuer à la planification des Program Increments (PI) et à l’affinage du backlog conformément aux pratiques Agile SAFe. Découverte produit et validation: Mener des activités de discovery afin de valider les problématiques utilisateurs et tester les idées de solutions. Veiller à ce que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transverse: Coordonner avec les parties prenantes internes (ingénierie, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption et accompagnement de la plateforme: Soutenir l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’utilisation et recueillir les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et accompagner les citizen developers grâce à des outils intuitifs et une documentation claire. Contribution stratégique: Définir et communiquer la vision autour du machine learning classique et de l’approche low-code/no-code. Identifier des opportunités d’innovation et d’amélioration de l’efficacité. Se tenir informé des tendances du marché et des technologies émergentes. Compétences requises: Expérience avérée en tant que Product Owner ou Product Manager, idéalement dans le domaine des plateformes data/IA. Solide compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience dans des environnements cloud natifs (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion des parties prenantes. Compétence linguistique: anglais courant.
Offre d'emploi
Product Owner - Data/IA
La mission du Product Owner assure la cohérence transverse de l’évolution de la plateforme d’IA pour l’ensemble des pays (présence directe dans environ 30 pays). Ce rôle allie pilotage produit, livraison agile et innovation basée sur l’IA, avec un fort accent sur le Traitement Intelligent de Documents (IDP). Stratégie Produit & Gouvernance Définir et maintenir la feuille de route fonctionnelle des différentes solutions d’IA, du développement de la plateforme et de la gestion documentaire. Aligner les besoins métiers avec les capacités de l’IA. Consolider et prioriser le backlog produit en collaboration avec les parties prenantes et l’équipe de développement. Intégration IA & IDP Piloter l’adoption des technologies d’IA telles que le Traitement du Langage Naturel (NLP), la Reconnaissance Optique de Caractères (OCR) et le Machine Learning pour automatiser la classification, l’extraction et la validation des documents. Intégration Inter-Plateformes Garantir l’intégration fluide des flux documentaires avec les autres plateformes d’entreprise, afin de permettre des processus numériques de bout en bout : signature électronique, archivage légal, suivi de conformité, etc. Leadership Agile Animer les cérémonies agiles : Grooming Sessions , Sprint Planning , Sprint Reviews , Planning Poker , QBR , QAP . Favoriser une culture d’amélioration continue et d’expérimentation, notamment dans les cycles d’itération des modèles d’IA. Collaboration Internationale Coordonner une équipe distribuée d’environ 8 professionnels entre la France et les Pays-Bas. Travailler en étroite collaboration avec le Corporate Data Office et les entités métiers internationales pour garantir que la plateforme réponde aux exigences réglementaires et opérationnelles diverses. Tâches au quotidien Décliner la stratégie et assurer l’amélioration continue des produits. Définir, maintenir et mettre en œuvre les roadmaps produit : fonctionnelle, technique et transformation d’équipe (Agile, sourcing, etc.). Assurer la gouvernance, la gestion et la priorisation du backlog produit et du budget. Être responsable, avec les Designers, de la définition des User Stories : critères d’acceptation et exigences correctement définis (Definition of Ready, Definition of Done, etc.). Animer la communauté et le grooming avec les Business Product Owners et les stakeholders. En collaboration avec le Scrum Master, faciliter la relation entre les parties prenantes et promouvoir la communauté. Promouvoir la connaissance et l’usage de la plateforme auprès des chefs de projet et parties prenantes. Anticiper, recueillir et affiner les besoins pour les intégrer dans la stratégie de la plateforme. Garantir la qualité des services : actions d’amélioration, suivi des incidents et des problèmes. Contribuer à la communauté des Product Owners IT. Être un acteur clé du changement et un catalyseur de la transformation Agile (amélioration des méthodes de travail). Veiller à la sécurité des actifs et soutenir les actions d’amélioration. Collaborer avec les autres service pour assurer un développement bout-en-bout des fonctionnalités du backlog de domaine. Construire et suivre les indicateurs de performance (KPIs) de la plateforme pour en promouvoir la connaissance et l’usage. Assurer la coordination IT avec les fournisseurs, les métiers et les autres parties prenantes IT (DBA, Scheduling & Flow, Finance, équipes Digital, IT Group, etc.).
Mission freelance
Data Scientist Expérimenté (5–7 ans d’expérience) Japonais Mandatory
Contexte Notr client recherche un Data Scientist confirmé pour rejoindre son Tech Accelerator et contribuer à des projets innovants autour de l’IA, du NLP et des solutions GenAI. Missions principales Extraction, traitement et analyse de données complexes. Développement et optimisation de modèles statistiques et algorithmiques. Conception et mise en œuvre de solutions basées sur le Machine Learning et Deep Learning . Participation à l’application, au fine-tuning et au développement de solutions LLM / Gen AI . Communication des résultats et vulgarisation des analyses auprès des équipes métiers. Compétences requises Langues : Japonais courant Anglais niveau B2+ Français : un plus, mais non obligatoire Techniques : Python, SQL, Git Deep Learning & NLP Algorithms Machine Learning & Statistical Modeling Fine-tuning et développement de modèles LLM / Gen AI Profil recherché 5 à 7 ans d’expérience minimum en tant que Data Scientist ou poste équivalent. Solides compétences en modélisation, algorithmes et exploitation de données. Capacité à collaborer avec des équipes internationales et à communiquer efficacement les résultats.
Mission freelance
Consultant IA Agentique Assurance (3–4 ans d’expérience)
Nous recherchons pour un de nos clients basés en IDF, un consultant IA Agentique Assurance (3–4 ans d’expérience) pour une mission freelance (longue visibilité). Un Consultant IA Agentique Assurance (3–4 ans d’expérience) Intitulé du poste : Consultant IA Agentique – Secteur Assurance Type de contrat : Freelance Localisation : Paris (IDF) – Télétravail partiel possible Expérience requise : 3 à 4 ans - (projet significatif) 🎯 Missions principales - Concevoir et développer des agents intelligents pour automatiser des processus métiers (gestion de sinistres, relation client, souscription). - Intégrer des systèmes d’IA capables de prise de décision autonome, d’interaction avec les utilisateurs et d’analyse contextuelle. - Participer à un projet significatif en IA agentique dans un environnement réglementé et orienté client. - Collaborer avec les équipes métier, data et IT pour aligner les solutions IA avec les enjeux du secteur assurance. 🛠️ Compétences recherchées - Maîtrise du développement en Python (ou autre langage pertinent). - Expérience en IA appliquée : machine learning, NLP, systèmes multi-agents ou symboliques. - Connaissance des enjeux spécifiques à l’assurance : conformité, traçabilité, explicabilité. - Familiarité avec des frameworks comme LangChain, Rasa, ou OpenAI API. - Capacité à documenter, tester et déployer des agents dans des environnements de production.
Mission freelance
Project Management GenAI (F/H) - 75
Contexte Nous sommes à la recherche d'un chef de projet confirmé avec une expérience significative pour notre client dans des environnements IA, data science ou tech-driven. Vous serez en charge de coordonner des projets complexes intégrant des technologies de pointe (GenAI, LLMs, RAG, Machine Learning) et impliquant des équipes pluridisciplinaires (Product Owners, Data Scientists, AI Engineers, pays). Mission - Définir et piloter les roadmaps projets en lien avec la stratégie IA. - Assurer la coordination multi-équipes et multi-pays (tech, business, data, PO). - Garantir le suivi opérationnel : livrables, planning, ressources, budget et risques. - Mettre en place et animer la gouvernance et le reporting auprès des sponsors. - Accompagner le déploiement et l’adoption des solutions GenAI à l’échelle. - Contribuer à la vulgarisation et la pédagogie auprès des parties prenantes.
Mission freelance
[FBO] Senior Full Stack Developement Python / React Js spécialisation en AI/RAG Paris - 890
Description: Secteur: Assurance 🎯 idéal : Mission de Développeur full stack confirmé, avec au moins 5 à 8 ans d’expérience en développement backend (Python) et frontend (React.js). Expertise avérée en LangChain, LLMs, RAG, et intégration d’agents IA. Expérience en déploiement et optimisation de modèles IA, idéalement sur des environnements cloud (AWS, Azure). Maîtrise des architectures scalables, CI/CD, conteneurisation (Docker), API REST. Capacité à collaborer en environnement agile, avec des équipes pluridisciplinaires (data, produit, IA). Anglais courant requis, pour évoluer dans un contexte international. ✅ Compétences techniques clés : Backend : Python, Node.js, LangChain, API REST, Docker Frontend : React.js Cloud : AWS, Azure AI/ML : LLMs, RAG, agentic architectures Méthodologie : Agile, Scrum • Type de projet (support / maintenance / implementation /…) : implementation • Type de prestation (Client / Hybrid / Remote) : Remote • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 2/semaine • Urgency : yes • Les astreintes (HNO, etc.) : no • La possibilité de renouvellement (oui/non) : yes
Mission freelance
Data Engineer - Azure
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Mission freelance
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.
Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)
Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC
Mission freelance
Expert Stockage Objet MinIO / S3
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, InfrastructureExpert Spécialités technologiques :Stockage,API,ML Compétences Technologies et Outils Docker Active Directory Kubernetes LDAP Soft skills Autonomie Rigueur Nous recherchons un expert technique de haut niveau pour accompagner notre client dans la conception, la mise en œuvre, l'optimisation et la maintenance de notre infrastructure de stockage objet basée sur MinIO. Le candidat retenu devra justifier d'une expérience significative en environnement de production, avec des contraintes fortes de haute disponibilité, de performance et de scalabilité. MISSIONS Maîtrise approfondie de MinIO et de l'écosystème S3 - Expertise de l'API S3 : Connaissance complète des fonctionnalités de l'API S3 (gestion des objets, versioning, politiques de cycle de vie, multipart upload, presigned URLs, etc.). - Architecture MinIO : Compréhension fine de l'architecture de MinIO, y compris le fonctionnement du mode distribué, l'erasure coding pour la protection des données, et le processus de guérison automatique (healing). - Déploiement et Configuration : Expérience avérée dans le déploiement de clusters MinIO à grande échelle, que ce soit sur des serveurs bare-metal, des machines virtuelles ou dans un environnement conteneurisé (Kubernetes, Docker). L’échelle en terme de stockage est entre 500 et 900TB en cible à 5ans. - Sécurité : Maîtrise des aspects de sécurité liés à MinIO, incluant le chiffrement (côté serveur et côté client), la gestion des identités et des accès (IAM), et l'intégration avec des fournisseurs d'identité (LDAP, Active Directory). Haute Disponibilité et Scalabilité - Conception d'Architectures Résilientes : Capacité à concevoir et à mettre en œuvre des architectures MinIO garantissant une haute disponibilité (multi-nœuds, multi-sites). - Scalabilité Horizontale : Expérience dans l'ajout de nouveaux nœuds à un cluster MinIO existant sans interruption de service et connaissance des mécanismes de rééquilibrage automatique. - Gestion des Défaillances : Solide expérience dans la gestion des pannes (disques, nœuds) et les stratégies de reprise après sinistre. Performance et Optimisation - Analyse de Performance : Compétence dans l'utilisation d'outils de benchmark (comme warp) pour mesurer et analyser les performances (latence, débit) d'un cluster MinIO. - Optimisation : Capacité à identifier et à résoudre les goulots d'étranglement, que ce soit au niveau matériel (réseau, disques NVMe), système ou applicatif. - Caching : Connaissance des stratégies de mise en cache pour optimiser les performances des lectures. Expertise souhaitée Expérience de Production et Références Exigées Le candidat doit pouvoir présenter de manière détaillée une ou plusieurs implémentations significatives en environnement de production : - Description du Cas d'Usage : Quel était le besoin métier (stockage pour de l'analytique, de l'IA/ML, des sauvegardes, des médias, etc.) ? - Volumétrie et Charge : Quelle était la volumétrie des données gérées et le niveau de trafic (nombre de requêtes par seconde) ? - Enjeux de Performance : Description des défis spécifiques liés à la performance et des solutions mises en place pour y répondre. - Incidents et Résolution : Exemples concrets d'incidents de production gérés et des leçons apprises. Connaissance d'une Solution Alternative : Une expérience significative avec une autre solution de stockage objet compatible S3 est un atout majeur. Le candidat devrait être capable de comparer MinIO à cette alternative sur des critères techniques et opérationnels. Exemples de solutions alternatives pertinentes : - Ceph - OpenIO - Garage - Services S3 natifs dans un contexte cloud privé SecNumCloud Qualités Personnelles - Autonomie et Proactivité : Capacité à travailler de manière autonome, à diagnostiquer des problèmes complexes et à proposer des solutions robustes. - Rigueur et Méthodologie : Approche structurée dans la résolution des problèmes et la gestion des environnements de production. - Bonne Communication : Aptitude à communiquer clairement sur des sujets techniques complexes avec différentes équipes.
Offre d'emploi
Développeur Go / MLOps
Nous recherchons un(e) Développeur Go / MLOps pour l'un de nos clients grands comptes dans le secteur bancaire. Contexte de la mission : L’équipe est responsable de la stabilité, de la disponibilité et de l’évolution des briques techniques de la plateforme Sparrow. Elle conçoit également les fondations techniques (back-end, infrastructure, sécurité, CI/CD) essentielles à son fonctionnement. En tant que prestataire Dev Go / MLOps, tes missions seront les suivantes : Maintenance et évolution : Maintenir et faire évoluer des microservices en Go déployés dans Kubernetes (opérateurs, API internes, etc.). Développer des frameworks Python (back-end ou bibliothèques internes pour Data Science). Gérer les pipelines CI/CD GitLab (build, tests, déploiements). Créer et maintenir du code d'infrastructure (Terraform, Helm, Kustomize, etc.). Développer des outils internes DevOps / MLOps (ArgoCD, GitLab runners, Vault, etc.). Assurer la gestion des outils d’observabilité (Prometheus, Grafana, logs, alerting). Industrialisation de projets IA : Accompagner la mise en production de projets IA provenant d’autres équipes. Intégrer les modèles IA dans la plateforme Sparrow Flow et les déployer sur Sparrow Serving. Participer à des POCs pour tester de nouveaux outils ou pratiques Dev/MLOps. Stack technique : Une stack moderne et riche, avec un fort accent sur DevOps / MLOps : Langages : Go (pour les opérateurs Kubernetes, services back-end), Python (frameworks ML), Bash. Infrastructure & Orchestration : Kubernetes, Docker, Helm, Kustomize. CI/CD : GitLab CI, GitOps, BuildKit. Infra as Code : Terraform. Observabilité : Prometheus, Grafana, ELK, Jaeger. Sécurité / IAM : Vault, Keycloak, Sparrow IAM. Outils IA/DS : ArgoWorkflows, ArgoEvents, pyPF.
Offre d'emploi
Data Scientists IA
Nous recherchons deux Data Scientists IA (Junior & Senior) passionnés par l’intelligence artificielle et les grands modèles de langage pour rejoindre notre équipe sur une mission longue. Missions Concevoir, entraîner et déployer des modèles IA/ML avancés. Travailler sur des cas d’usage innovants autour du RAG (Retrieval Augmented Generation) et des LLM (Large Language Models). Développer en Python des solutions performantes et scalables. Exploiter la puissance du cloud Azure pour industrialiser et mettre en production les modèles. Collaborer avec les équipes Data, Produit et Tech pour maximiser l’impact métier.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.