L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 521 résultats.
Mission freelance
Architecte API
Publiée le
6 mois
690-710 €
Le Mans, Pays de la Loire
Télétravail partiel
La mission couvre les domaines suivants : Architecture & Design * Conception de l'architecture cible Apigee Hybrid (runtime, management plane, synchronisation, monitoring). * Intégration avec l'écosystème GCP (IAM, Cloud Armor, Cloud Logging, Cloud Monitoring, Artifact Registry…). * Définition des patterns d'exposition, de sécurité et de gouvernance API. * Mise en place des Shared Flows, Policies et standards transverses. Implémentation & Industrialisation * Déploiement d'Apigee Hybrid sur OpenShift (ou Kubernetes équivalent). * Automatisation des pipelines CI/CD avec Tekton et ArgoCD. * Provisioning et configuration via Terraform. * Automatisation des opérations via Ansible. * Intégration avec HashiCorp Vault pour la gestion des secrets. Sécurité & Gouvernance * Définition et mise en œuvre des politiques de sécurité (OAuth2, JWT, MTLS, quotas, rate limiting…). * Mise en place d'un cadre de gouvernance API (naming, versioning, lifecycle management). * Accompagnement sur la conformité et les bonnes pratiques DevSecOps. Support aux équipes & transfert de compétences * Coaching des équipes de développement et d'exploitation. * Rédaction de guides, standards, modèles de proxies et shared flows. * Participation aux comités d'architecture et d'urbanisation. 🛠️ Compétences techniques attendues Savoir maîtriser les technologies suivantes : API Management & Apigee * Expertise confirmée sur Google Apigee Hybrid (obligatoire). * Conception de proxies, policies, shared flows, API products. * Monitoring, troubleshooting, optimisation des performances. Cloud & Conteneurisation * Google Cloud Platform (IAM, networking, sécurité, logging). * OpenShift / Kubernetes (déploiement, scaling, observabilité). DevOps / GitOps * Pipelines CI/CD avec Tekton, ArgoCD. * Infrastructure as Code : Terraform, Ansible. * Gestion des secrets : Vault. Sécurité & Observabilité * Protocoles API (REST, gRPC), OAuth2, JWT, MTLS. * Logging, tracing, monitoring (Stackdriver, Prometheus, Grafana…). Durée & modalités * Charge : Temps plein. * Lieu : Le Mans * Démarrage souhaité : ASAP.
Mission freelance
Data Engineer GCP
Publiée le
DBT
Google Cloud Platform (GCP)
18 mois
460-530 €
Rennes, Bretagne
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer GCP pour l'un de ses clients dans le secteur de la restauration à Rennes. Missions principales : Développer et maintenir des pipelines de données fiables et évolutives. Assurer un regard critique sur les données et garantir leur qualité ( quality by design ). Mettre en place des contrôles et validations sur les données, comprendre les contraintes métiers et techniques. Collaborer avec les équipes pour estimer le reste à faire , le chiffrage des tâches et la planification des sprints. Travailler dans un environnement agile (Scrum/Kanban), avec suivi dans Jira . Participer à la mise en place des bonnes pratiques DevOps : Git, CI/CD . Collaborer avec les équipes techniques et métiers pour garantir la pertinence des données. Atouts supplémentaires : Expérience industrielle ou traitement de données en temps réel (Pub/Sub). Capacité à proposer des améliorations ou innovations dans les pipelines et la qualité des données.
Offre d'emploi
Tech Lead Data
Publiée le
CI/CD
DBT
Python
12 mois
40k-60k €
400-600 €
Île-de-France, France
Télétravail partiel
Tech Lead Data & Analytics (Snowflake, dbt, Tableau) – Télétravail possible 📍 Temps plein | F/H/X Nous recherchons un(e) Tech Lead Data pour rejoindre une Feature Team et piloter le développement de produits Data Analytics & IA de haute qualité. Missions principales : Encadrer et coacher une équipe de Data Engineers Définir les choix techniques et modélisations des produits Data Industrialiser et optimiser les flux et produits Data Relever des défis techniques, challenger le "status quo" et proposer des améliorations Compétences techniques requises : SQL, Python, Jinja Snowflake (ou autre Modern Data Platform, ex: GCP BigQuery) dbt, Tableau ou autres outils Analytics Culture Agile & DevOps (CI/CD) Profil recherché : 7+ ans d’expérience en Data, dont 3 ans comme Senior Data Engineer Leadership, autonomie et orientation résultats 💬 Candidature / Contact : Merci de postuler via le site ou de nous envoyer un message directement pour échanger sur le poste.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Développeur Java Spring AWS
Publiée le
AWS Cloud
Java
Spring
12 mois
400-460 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Développeur Java Spring AWS pour l'un de ses clients dans le secteur de l'immobilier. Missions : Participer au développement d’une nouvelle application de facturation électronique sur l’ERP STUDEA. Concevoir et implémenter des services basés sur des architectures micro-services. Intégrer les nouveaux flux de facturation selon les exigences de la réforme. Travailler en étroite collaboration avec le Product Owner, les DevOps et les autres développeurs dans un environnement Agile. Contribuer à la qualité du code via du pair programming , des code reviews , et des tests automatisés (unitaires et fonctionnels BDD). Assurer l’intégration continue et le déploiement des applications dans un environnement Cloud AWS .
Mission freelance
Consultant Infrastructure
Publiée le
AWS Cloud
6 mois
400-500 €
Villeneuve-d'Ascq, Hauts-de-France
Au sein de la Business Unit Data, les équipes Data Platform sont chargées des outils et des bonnes pratiques pour les différents profils des équipes data. Nous accompagnons au quotidien l’ensemble des acteurs de la Data au sein du groupe et sommes responsables du maintien en condition opérationnelle de l'infrastructure de la DATA. Nous offrons également un accompagnement aux équipes techniques. L’équipe Data InfraOps innove tous les jours pour répondre au mieux aux besoins de notre plateforme. Nos enjeux sont : Une plateforme data entièrement multi-cloud (AWS-GCP) De la haute disponibilité, avec une plateforme résiliente et des technologies innovantes La sécurité au coeur de nos projets Les besoins de nos data scientist, data engineers data analystes, et développeurs traduits en solutions techniques. La mission est d’intervenir sur plusieurs produits de l’équipe. Le premier concerne, l’offre de compute via le service AWS EKS: Faire évoluer le produit à l’état de l’art et automatisation Récolter, comprendre, analyser et challenger les besoins utilisateurs (internes et externes à la plateforme) ; Ajouter et automatiser les nouveaux besoins; Mise à disposition de nouvelles ressources et accès en self service pour les projets; Maintien en condition opérationnelle et Support Assurer le maintien de l’offre en condition opérationnelle; Apporter un support de niveau 3; Suivre les évolutions du produit kubernetes et tout l’environnement CNCF; Sécurité et Observabilité S’assurer de la conformité de la sécurité des clusters Ajouter et maintenir les éléments d’observabilités des clusters Garantir la maintenabilité, l’évolutivité et la fiabilité du produit La deuxième mission concerne l’APIsation de la plateforme. Recenser les problématiques Ops et les traduire en solution technique dans le cadre d’une intercommunication entre les services de la plateforme via des API; Architecturer, Développer et maintenir les API; Assurer l’évolutivité et la maintenabilité des API La troisième mission consiste à animer techniquement l’équipe infraOps sur les bonnes pratiques DevOps : Assurer une automatisation en bout en bout de la chaîne de delivery des services; S’assurer de la qualité des livrables; Automatiser les process consommateurs en temps humain et source d’erreur; Sensibiliser l’équipe aux bonnes pratiques DevOps Les plus pour réussir : Mindset "Owner" et proactif : Ne pas se contenter de répondre aux demandes, mais anticiper les évolutions (technologiques et besoins utilisateurs), proposer des solutions d’amélioration continue et prendre la responsabilité de la qualité et de la performance des produits. Aptitude à la simplification et à l'automatisation totale : Avoir la conviction que toute tâche récurrente ou source d'erreur doit être automatisée. Savoir concevoir des solutions élégantes qui garantissent un véritable "self-service" pour les utilisateurs et une chaîne de livraison "end-to-end" fluide. Excellence en communication technique et pédagogie : Être capable de traduire des problématiques Ops complexes en solutions API claires, de challenger les besoins utilisateurs avec un esprit critique constructif, et surtout, d'animer et de transmettre les bonnes pratiques DevOps à l'équipe. Rigueur sur la sécurité et l'observabilité : Considérer la sécurité et l'observabilité non comme des tâches annexes, mais comme des éléments fondamentaux intégrés dès la conception, notamment dans l'environnement critique des clusters EKS. Veille technologique et innovation : Maintenir une curiosité constante sur l'écosystème CNCF (Kubernetes, etc.) et les tendances AWS, afin de maintenir l'offre de compute à l'état de l'art. Compétences : E
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
CDI - Software Backend Engineer - NodeJS/Typescript (H/F)
Publiée le
Architecture
Back-end
Node.js
60k-90k €
Paris, France
Télétravail partiel
En tant que Senior Backend developer (H/F), votre responsabilité principale sera de concevoir et de développer les fonctionnalités, composants et services de l'e-commerce de notre client, en appliquant les best practices de développements et de qualité. Vous travaillerez en direct avec des Product Owners & l'équipe infra (SRE & DEVOPS), dans un environnement agile & cloud AWS. Vous ferez du code review et pair programming au sein de votre équipe. Vous contribuerez aux décisions techniques et fonctionnelles, respecterez les normes de qualité, de sécurité et de performance. Principaux sujets : - Développement de nouvelles features - API, consommateurs kafka - Monitoring avec l'équipe infra - Pair programming, code review - Mise en place des best practices : TDD, DDD, SOLID STACK : NodeJS Typescript APIRest Kubernetes Docker Terraform Kafka Environnement cloud AWS
Mission freelance
Consultant IA
Publiée le
LangChain
RAG
12 mois
650-810 €
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de ses outils d’aide à la décision financière, le client souhaite concevoir et déployer une plateforme SaaS basée sur des agents IA spécialisés , capable de répondre de manière fiable, contextualisée et experte aux problématiques financières. L’objectif est de permettre à des profils financiers (contrôle de gestion, finance d’entreprise, audit, risk, M&A, etc.) de brancher leurs propres données (structurées et non structurées) et d’interagir avec des agents IA experts du domaine financier , capables de raisonner, dialoguer entre eux (Agent-to-Agent) et produire des réponses exploitables métier. 2. Périmètre de la mission Le consultant interviendra sur l’ensemble du cycle de conception et de mise en œuvre de la solution : Conception & Architecture Définition de l’architecture globale d’une plateforme IA orientée agents (multi-agents, Agent-to-Agent). Conception d’agents spécialisés par domaine financier (ex. : reporting financier, analyse de performance, risques, cash management, consolidation, etc.). Mise en place d’une architecture SaaS sécurisée , scalable et multi-clients. IA & Data Intégration de modèles de langage (LLM) et d’agents conversationnels spécialisés. Mise en œuvre de mécanismes de RAG (Retrieval Augmented Generation) sur données financières. Gestion de l’ingestion de données (CSV, Excel, bases SQL, APIs, documents financiers). Garantir la traçabilité, l’explicabilité et la fiabilité des réponses produites. Agent-to-Agent Conception de scénarios de collaboration entre agents (ex. : un agent analyse, un autre valide, un autre synthétise). Orchestration des échanges entre agents selon les cas d’usage métier. Mise en place de règles de contrôle, de priorisation et de validation. Sécurité & Conformité Gestion des droits d’accès aux données. Séparation stricte des environnements et des données clients. Prise en compte des enjeux de conformité (RGPD, confidentialité financière). Livraison Développement de POC puis MVP. Contribution à la roadmap produit. Documentation technique et fonctionnelle. Transfert de compétences aux équipes internes. 3. Livrables attendus Architecture cible de la solution (technique et fonctionnelle). Modèles d’agents IA spécialisés Finance. POC opérationnel puis MVP. Documentation (architecture, agents, flux de données). Recommandations pour l’industrialisation et le passage à l’échelle. Plan de sécurité et de gouvernance des données. 4. Profil recherchéCompétences clés (obligatoires) Expertise confirmée en IA générative et systèmes multi-agents . Expérience concrète dans la conception d’agents IA spécialisés . Solide compréhension des enjeux financiers (finance d’entreprise, contrôle de gestion, reporting, risk, audit…). Maîtrise des approches RAG , prompt engineering avancé et orchestration d’agents. Capacité à concevoir une solution SaaS orientée produit. Compétences techniques attendues Langages : Python (obligatoire). Frameworks IA / agents (LangChain, LlamaIndex, AutoGen ou équivalent). APIs, micro-services, architecture cloud. Bases de données SQL / NoSQL. Cloud public (AWS, Azure ou GCP). Bonnes pratiques DevOps (CI/CD). Compétences complémentaires appréciées Expérience en fintech, banque, assurance ou cabinet de conseil financier . Connaissance des problématiques de data finance et de qualité des données. Expérience en POC, MVP et produits IA innovants. 5. Expérience & formation Minimum 5 ans d’expérience en IA / data / ingénierie logicielle. Expérience significative sur des projets IA appliquée à des cas métiers complexes . Formation supérieure (Bac+5) en informatique, data science, ingénierie ou équivalent.
Mission freelance
Lead Développeur Front Angular
Publiée le
Angular
CSS
Git
12 mois
Seine-Saint-Denis, France
Télétravail partiel
Métiers et Fonctions : Études & Développement Lead Développeur Spécialités technologiques : Front-End API Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et outils : TypeScript (5 ans), Angular (7 ans) Méthodes / Normes : Agile Savoir-être : Leadership Secteurs d'activités : Transports Terrestres Description de la prestation : Dans le cadre du développement d'une application stratégique, le poste de Lead Développeur Front Angular (version 21) consiste à : Garantir la qualité du front-end (performance, maintenabilité, sécurité) Structurer et faire évoluer l’architecture Angular Encadrer et faire monter en compétences les développeurs juniors Être le référent technique front Encadrement : Encadrer techniquement les développeurs (juniors et confirmés) Animer des revues de code, promouvoir bonnes pratiques Angular Mentorat et pair programming pour la montée en compétences Développement Front-End : Conception et développement d’interfaces complexes avec Angular 21 et TypeScript Implémentation d'architectures front robustes (modules, composants standalone, RxJS) Assurance de la qualité du code : lisibilité, testabilité, performance Collaboration étroite avec les équipes backend pour une intégration API fluide Qualité, performance & sécurité : Optimisation des performances front (chargement, rendu, gestion des états) Mise en place et maintenance de tests (unitaires, intégration, E2E) Environnement technique : Frontend : Angular 21, TypeScript, RxJS, HTML, CSS / SCSS Backend : NestJS Messaging / Data : Kafka, MongoDB Cloud & DevOps : AWS (Lambda, Glue), Jenkins Outils : Git, CI/CD
Mission freelance
Expert technique Systeme Linux
Publiée le
Linux
24 mois
450-900 €
Paris, France
Télétravail partiel
Propulse IT recherche un Expert technique systeme Linux pour intégrer une équipe en charge de la conception, de la mise en oeuvre et du support des infrastructures Linux. Cette équipe souhaite renforcer et élargir son éventail de compétences en avec une prestation d'expert technique spécialisé dans les technologies RedHat Linux. Cette prestation aura pour mission d'assurer un support de niveau N2/N3 sur cette plateforme. Nous cherchons également à intégrer des compétences DevOps, notamment dans les technologies d'orchestration et d'automatisation, afin de soutenir nos équipes et nos projets en cours. L'un des projets techniques auxquels le prestataire devra contribuer est l'automatisation et l'industrialisation du processus de déploiement, visant à aligner nos environnements applicatifs sur les normes en vigueur et à adopter une approche similaire au Cloud pour le déploiement sur site. Dans ce contexte, nous attendons du prestataire qu'il nous aide a monter en compétence et participe à la conception des images Packer nécessaires ainsi que les Playbooks Ansible associés. Prestations : - Assurer le support N2/N3 des infrastructures, des paliers OS et des middlewares actuellement utilisés auprès des équipes de la production - Force de proposition dans le cas ou des actions de support sont automatisables - Participer aux projets techniques sur des environnements Linux (mise en œuvre de nouveaux paliers OS, middlewares et des évolutions d'infrastructures existantes)
Mission freelance
Lead Développeur Front Angular
Publiée le
Angular
API
TypeScript
24 mois
Seine-Saint-Denis, France
Télétravail partiel
Metier : Etudes & Développement Fonction : Lead Développeur Spécialités technologiques : Front-End, API Type de facturation : Assistance Technique (facturation avec un taux journalier) Technologies et outils : Angular (7 ans) TypeScript (5 ans) Méthodes / Normes : Agile Soft skills : Leadership Secteurs d'activités : Transports Terrestres Description de la prestation : Dans le cadre du développement d'une application stratégique, la mission consiste à intervenir en tant que Lead Développeur Front Angular (version 21). Le rôle nécessite une expertise technique en front-end, du leadership et un accompagnement des développeurs juniors au sein d'une équipe agile. Objectifs : Garantir la qualité du front-end : performance, maintenabilité, sécurité Structurer et faire évoluer l’architecture Angular Encadrer et faire monter en compétences les développeurs juniors Être le référent technique front Encadrement : Techniquement encadrer les développeurs (juniors et confirmés) Animer des revues de code, promouvoir bonnes pratiques Angular Mentorat et pair programming pour la montée en compétences Développement Front-End : Conception et développement d'interfaces complexes avec Angular 21 et TypeScript Implémentation d’architectures front robustes (modules, standalone components, signals, RxJS) Assurer la qualité du code : lisibilité, testabilité, performance Collaborer avec les équipes backend pour une intégration API fluide Qualité, performance & sécurité : Optimisation des performances front (temps de chargement, rendering, gestion des états) Maintien et mise en place de tests (unitaires, intégration, e2e) Environnement technique : Frontend : Angular 21, TypeScript, RxJS, HTML, CSS/SCSS Backend (interaction) : NestJS Messaging / Data : Kafka, MongoDB Cloud & DevOps : AWS (Lambda, Glue), Jenkins Outils : Git, CI/CD
Mission freelance
Machine Learning Ops
Publiée le
MLOps
RAG
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Mission freelance
Expert NoSQL
Publiée le
AWS Cloud
Docker
Elasticsearch
12 mois
400-500 €
Paris, France
Télétravail partiel
Nous recherchons un Expert NoSQL Objectif global : Accompagner le client avec une Expertise NoSQL Les livrables sont: POC et guides d’architecture NoSQL Souches et scripts conteneurisés (Docker/OpenShift) Rapports d’audit et documentation technique consolidée Compétences techniques: ElasticSearch / GraphDB (Cypher, RDF, LPG) - Expert - Impératif Docker / Kubernetes / OpenShift / Linux RedHat - Confirmé - Impératif DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) - Confirmé - Impératif Description: Recherche un Expert NoSQL confirmé pour accompagner la création d’un centre de compétences interne autour des technologies NoSQL (ElasticSearch, GraphDB). Vous interviendrez sur la conception, l’industrialisation et l’optimisation d’environnements conteneurisés (Docker/OpenShift) hébergés sur cloud hybride (on-premise / AWS / GCP). Mission longue Compétences essentielles : - ElasticSearch / GraphDB (Cypher, RDF, LPG) - Docker / Kubernetes / OpenShift / Linux RedHat - DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) Livrables principaux : - POC et guides d’architecture NoSQL - Souches et scripts conteneurisés (Docker/OpenShift) - Rapports d’audit et documentation technique consolidée
Offre d'emploi
Développeur Magento 2
Publiée le
Adobe
API
CI/CD
6 mois
Paris, France
Télétravail partiel
Notre client recherche un Développeur Magento 2 afin de renforcer son équipe produit agile et effectuer la mission suivante : Vous avez pour mission de concevoir, développer, maintenir et optimiser le tunnel de commande d'une plateforme e-commerce de haut volume, construite en architecture Headless sur Magento 2 / Adobe Commerce Cloud. Votre expertise technique et votre rigueur seront cruciales pour garantir la stabilité, les performances et l'évolutivité de ce périmètre critique. Les principales missions sont les suivantes: 1. Développement & Architecture (70%) : Conception et développement de nouvelles fonctionnalités sur le périmètre tunnel de commande (panier, passage de commande, modes de livraison, méthodes de paiement) en mode headless. Développement et maintenance d'APIs GraphQL robustes, performantes et bien documentées pour servir le front-end headless. Intégration et gestion des services Adobe Commerce Cloud liés au tunnel de commande. Contribution à la définition et à l'évolution de l'architecture technique, en privilégiant la scalabilité et la maintenabilité. Mise en place et amélioration des tests automatisés (unitaires, d'intégration) sur votre périmètre. 2. Performance, SRE & Monitoring (20%) : Analyse et optimisation continue des performances du tunnel de commande (temps de réponse, optimisation des requêtes GraphQL, cache). Mise en place, configuration et analyse des outils de monitoring (ex: New Relic, Datadog, Kibana) pour assurer la supervision de l'application. Collaboration avec l'équipe SRE/DevOps sur les sujets liés à l'infrastructure Kubernetes (déploiements, configurations, debugging). Participation aux démarches de résilience (circuit breaker, retry) et de gestion d'incidents. 3. Travail d'équipe & Méthodologie (10%) : Participation active aux cérémonies agiles (daily, planning, retro). Revue de code pair et partage des connaissances avec les autres développeurs. Rédaction et mise à jour de la documentation technique. Collaboration étroite avec les équipes Front-end (consommatrices des APIs), Produit et QA.
Offre d'emploi
Développeur iPaaS Azure Sénior
Publiée le
.NET
Azure
Développement
12 mois
69k-73k €
500-550 €
Seine-Saint-Denis, France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Concevoir et développer des flux d’intégration inter-applicatifs dans Azure (Logic Apps, Functions, Service Bus, API Management). Mettre en place et maintenir les pipelines CI/CD avec Azure DevOps et Terraform. Participer à la migration et refonte d’intégrations existantes vers l’environnement iPaaS Azure. Assurer la supervision et la résilience des flux via Application Insights et ELK. Collaborer étroitement avec l’architecte et les équipes fonctionnelles pour définir les points d’intégration et les standards techniques. Garantir la qualité du code, la sécurité et la conformité (authentification, secrets, RBAC). Rédiger la documentation technique et assurer un support niveau 3 sur les flux critiques. Accompagner les développeurs juniors dans la revue de code et la diffusion des bonnes pratiques .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
521 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois