L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 174 résultats.
Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre
Publiée le
Nosql
6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation.
Mission freelance
Solution Data Architect H/F
Publiée le
Architecture
12 mois
400-550 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Périmètre et objectifs de la mission Mission principale : Prendre en charge l’architecture de bout en bout des solutions data pour les produits et cas d’usage analytiques, au sein d’un ou plusieurs value streams. Traduire les besoins métiers en solutions data sécurisées, scalables et optimisées en coût, s’appuyant sur la plateforme data d’entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). 2. Responsabilités principales Architecture : Ingestion batch/stream, DWH (modélisation Kimball/Star), Lakehouse (Iceberg/Trino), exposition via SQL/API/couche sémantique, gestion des flux de features ML si besoin. Modélisation : Transformation des concepts métiers en modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation…). BI & Analytics : Gouvernance des KPIs, optimisation des dashboards et des requêtes, gestion du cache et des agrégats, promotion du self-service (dbt/metrics layer + catalogue). Ops & FinOps : Suivi des SLOs (fraîcheur, latence, coût), observabilité, runbooks, backfills, tuning du stockage et des requêtes pour réduire les coûts. Gouvernance/Mesh : Gestion des métadonnées, documentation, publication de blueprints et d’ADRs.
Offre d'emploi
SDM TECHNIQUE AZURE (H/F)
Publiée le
Azure
ITIL
microsoft
3 ans
40k-45k €
450-550 €
75002, Paris, Île-de-France
Télétravail partiel
Nous recherchons un Service Delivery Manager (SDM) technique orienté Azure , capable d’évoluer dans un environnement exigeant du secteur du luxe. Au sein de l’équipe Opérations, vous serez garant de la qualité du Run et du bon fonctionnement des services Cloud, principalement sur Azure. Vous interviendrez sur les activités de delivery management, incident management, problem management, suivi de KPI, animation des comités, gestion du Build-to-Run et coordination des partenaires. Votre rôle est avant tout organisationnel et communicationnel : vous accompagnez les équipes techniques, challengez les partenaires, facilitez la résolution des incidents et assurez une communication claire, structurée et cohérente auprès des responsables applicatifs. Vous aurez également un rôle clé dans la validation des documentations, la bonne application des processus ITIL et l’amélioration continue. Vous ne serez pas amené à "mettre les mains dans la technique", mais un vernis technique solide sera indispensable pour comprendre les architectures, challenger efficacement, poser les bonnes questions et guider les analyses. Vous interviendrez sur un périmètre multi-cloud (Azure, un peu de GCP pour la data) et sur un portefeuille d’environ 80 applications critiques pour le business et l’image de marque de la Maison.
Mission freelance
230795/Data OPS Niort Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana)
Publiée le
Control-M
Dynatrace
3 mois
320-350 £GB
Niort, Nouvelle-Aquitaine
Data Ops Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python Contexte : Mettre en place des outils et des méthodes d'industrialisation et d'automatisation de l’exploitation informatique dans des environnements Data (orchestration des données). • Définir et mettre en place des processus pour une meilleure collaboration/ coordination entre les équipes de développement et d'exploitation. • Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques d’infrastructure as code dans le cycle d'orchestration des données. • Intégrer et maintenir les CI/CD (intégration continue et livraison continue), les tests automatisés pour fluidifier les pipelines de développement et de déploiement. • Configurer les Runners Gitlab pour les différents projets afin d’assurer le déploiement continue. • Assurer la gestion des versions des configurations afin de reproduire facilement les déploiements. • Assurer le monitoring des assets en collaboration avec l'équipe d'exploitation. • Concevoir et maintenir des services d'assistance FINOPS (observabilité). • Fournir une formation et un support aux membres de l'équipe d'exploitation sur les bonnes pratiques, les outils et les technologies utilisées. • Rédiger et maintenir une documentation précise et à jour pour les configurations, les processus et les workflows des solutions mises en place. Environnement Technique & Outils : ● Ordonnanceur (control M) ● Monitoring (Dynatrace/Grafana) ● ETL Powercenter / ELT DBT ● Informatica MDM / IDQ ● Elasticsearch ● SQL (Oracle, MySQL, PostgreSQL) ● No-SQL (Mongo DB) ● Hadoop (HDFS, Spark) ● Google Cloud Platform / Terraform ● Business Objects ● Tableau ● Dataiku ● Gestion des sources (SVN, GIT) ● Intégration (gitLab, Openshift) ● API (Gateway, Rest, Kafka) ● Scripts (shell, ksh) ● Python
Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning
Publiée le
Apache Airflow
Docker
MLOps
3 ans
100-520 €
Lille, Hauts-de-France
Télétravail partiel
Livrable attendu Pipelines MLOps automatisés (CI/CD) pour entraînement, validation et déploiement. Infrastructure cloud (IaC) opérationnelle. Système de monitoring et alerting pour modèles ML en production. Documentation technique et bonnes pratiques MLOps. Compétences techniques (Impératives) Frameworks MLOps : ZenML, MLflow, Vertex AI ou équivalent. Python : Confirmé. Orchestration/Pipelines : Airflow, Kubeflow, Dagster ou Prefect. Conteneurisation : Docker, Kubernetes. CI/CD & IaC : Git/GitLab/GitHub, Terraform/Ansible. Data Quality/Versioning : Great Expectations, Deeque, Feast, MLflow Model Registry. Cloud : Maîtrise d’un cloud majeur (GCP fortement recommandé). Connaissances linguistiques Français : Courant (Impératif). Anglais : Professionnel (Impératif).
Mission freelance
Mission : Machine Learning / Generative AI
Publiée le
AI
Machine Learning
12 mois
550-700 €
Paris, France
Télétravail partiel
Je recherche pour un client un Machine Learning Engineer avec une forte expertice en IA. Missions : Au Sein de l’équipe Data, vous contribuerez au déploiement d’algorithmes de Machine Learning / Generative AI sur la data plateforme (Google Cloud Platform). En collaboration avec le responsable Data, les Product Owners Data et les équipes business, vous serez impliqué(e) dans l’ensemble du processus de réflexion et de déploiement des solutions IA/ML et aurez pour missions : Le Machine Learning doit maîtriser la plateforme Vertex de Google Cloud Platform (GCP), capable de coder, packager et industrialiser des modèles IA.
Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)
Publiée le
Architecture
3 mois
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Mission freelance
Tech Lead Sénior Solution Lead (550€ MAX)
Publiée le
Méthode Agile
1 an
400-550 €
Île-de-France, France
Télétravail partiel
● Expertise reconnue dans l'écosystème de l'Encaissement Autonome (SCO/Self Check Out), ● incluant la connaissance des contraintes matérielles, logicielles et des solutions du marché. ● Pilotage d’équipe avec réorganisations structurantes. ● Pilotage de projets d’envergure impliquant un déploiement à risque et à grande échelle. ● Pilotage transverse d’équipe et forte capacité à aligner les parties prenantes (Produit, Ops, ● Support, Infrastructure). ● Excellente connaissance des contraintes liées au pilotage d’éditeur et de fournisseurs de solutions d’encaissement / SCO. ● Anglais courant ● Solides connaissances techniques autour de l'intégration d’applications éditeur et capacité à prendre des décisions d’architecture complexes. ● Bonne connaissance sur la mise en place de KPI, de monitoring avancé (Observability) et du suivi de performance d’applications critiques. ● Solide expérience en méthode de delivery Agile (Scrum, Kanban) et outils associés. ● Bonnes connaissances techniques autour de : Test Automation, Performance, Monitoring, CICD (avec des technologies comme Kafka, Kubernetes, etc.). ● Connaissance générale d’architecture des SI incluant une culture Cloud (GCP/Azure/AWS), API Management (Apigee), et Data (Data Lake).
Mission freelance
IT Project Manager Cloud – Senior H/F
Publiée le
Cloud
3 mois
400-550 €
Île-de-France, France
Nitrolabz est une société de conseil et de services en ingénierie informatique, spécialisée dans la mise à disposition d’experts technique, le développement de solutions digitales, et l’intégration de technologies de pointe. C’est aussi une marque du groupe Sync Digitals, fondé en 2017 en Suisse, dont la vocation première est de fournir des services et des solutions informatiques. Au fil des années le groupe s’est agrandi avec des rachats ou des prises de participations successives de structures innovantes en plein essor. Dans le cadre du renforcement et structuration de nos services, nous recherchons un Project manager cloud expérimenté à l’aise dans les environnements internationaux, pour accompagner un grand acteur du secteur de l’assurance dans sa transformation digitale. . Dans ce rôle à temps plein, vous serez responsable de l'analyse des processus métiers et de la formulation des exigences commerciales. Au quotidien, vous collaborerez avec les parties prenantes pour identifier les besoins, améliorer les processus existants et élaborer des solutions efficaces. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap. Nous recherchons un Project manager cloud expérimenté, 📍 Lieu :IDF 📅 Démarrage : ASAP 🌍 Contexte : Environnement anglophone – secteur assurance 🤝 Statut : Freelance ou partenaire Mission: Piloter des projets Cloud complexes (cadrage, déploiement, run) Coordonner les équipes techniques & métiers Garantir la qualité, les délais et la maîtrise des coûts Contribuer à la stratégie Cloud et FinOps vous êtes passionné(e) par la transformation digitale et les environnements Cloud ? Rejoignez notre ambitieuse pour piloter des projets stratégiques de migration, modernisation et gouvernance Cloud (AWS / Azure / GCP). Notre Culture : La culture de Nitrolabz repose sur un équilibre entre exigence technologique et valeurs humaines fortes. Dans un environnement à taille humaine, chaque collaborateur compte et participe directement à la réussite collective. Transparence, respect, écoute et épanouissement personnel sont au cœur de notre façon de travailler, tout comme la volonté de donner du sens à nos missions à travers des engagements responsables (RSE, diversité, durabilité). Ici, on valorise l’esprit entrepreneurial, la curiosité et l’envie de construire ensemble, avec la conviction que la performance vient de la confiance et de la collaboration. Quels seront vos challens? Chez Nitrolabz, nous relevons un défi de taille : grandir et nous démarquer dans un marché IT ultra-compétitif. Notre ambition ? Aller au-delà du rôle classique d’ESN pour devenir un partenaire stratégique incontournable, là où sécurité, data et innovation se rencontrent. Chaque jour, nous travaillons à construire une identité forte, capable d’attirer les meilleurs talents, d’accompagner nos clients dans leurs enjeux les plus critiques et de transformer nos valeurs humaines et RSE en véritable avantage concurrentiel. Rejoindre Nitrolabz, c’est participer à une aventure où tout reste à construire et où chacun a un rôle clé pour faire la différence. Ce que nous offrons: Pour nos clients, Nitrolabz n’est pas seulement un prestataire IT, mais un véritable partenaire. Nous les accompagnons dans leurs projets de transformation digitale. Notre force: une expertise technique pointue, une approche agile et humaine, et une proximité qui garantit des solutions sur-mesure et réellement alignées avec leurs enjeux business. Grâce à notre double ancrage franco-suisse, nous apportons une vision unique, innovante et sécurisée, tout en inscrivant chaque collaboration dans une démarche durable et responsable.
Mission freelance
Développeur [PYTHON ORACLE LINUX]
Publiée le
HTML
Javascript
Python
12 mois
400-530 €
Paris, France
Télétravail partiel
Vous interviendrez en renfort des équipe sur un projet autour du Credit Monitoring. Vos missions consisteront à contribuer: Développer les outils: SQL PYTHON HTLM JAVASCRIPT REACT JS Développement des applications en environnement Cloud GCP, Big Query, SpotFire, Documenter les développements au travers des cahiers techniques, Revue de code, Assurer les tests unitaires de l'outil, Gestion et résolution des incidents, des bugs, Accompagner les projets dans la mise en production, Accompagner les utilisateurs,
Offre d'emploi
Expert DevSecOps / LLMOps – Gitlab
Publiée le
Jenkins
18 mois
10k-60k €
180-600 €
Paris, France
Télétravail partiel
CONTEXTE Nous recherchons une expertise technique DevSecOps/LLMOps afin de maintenir et faire évoluer le Portail Multi-IAG face aux besoins croissants d’industrialisation, de sécurité, de conformité et de performance, et de contribuer à la montée en compétence de l’équipe sur les pratiques propres aux modèles génératifs. La mission s’exécute dans un contexte multi-environnements (Landing Zone GCP, On-Prem, cloud de confiance/ SecNumCloud à venir) et s’interface avec les briques internes du groupe (API Gateway, observabilité, etc.). La prestation s'articule autour de cinq missions clés : Fiabilisation et accélération du Portail V1 • Objectif : Améliorer et industrialiser les pratiques opérationnelles pour sécuriser et optimiser les services existants. • Périmètre : Mise en œuvre de la CI/CD, renforcement de la sécurité (IAM, secrets), structuration de l'observabilité (traces, métriques, logs) et des pratiques FinOps. Conception et préparation du Portail V2 (cible 2026) • Objectif : Définir et construire les fondations techniques de la future version du portail. • Périmètre : Conception de l'architecture DevSecOps cible, production des artefacts documentaires (HLD/LLD), développement de l'Infrastructure as Code (IaC) et des pipelines, et pilotage de la migration. Structuration de la filière LLMOps • Objectif : Définir et mettre en œuvre les standards, outils et processus pour industrialiser le cycle de vie des modèles génératifs. • Périmètre : Intégration des évaluations continues (qualité, sécurité, coûts) dans la CI, mise en place de "guardrails" et de politiques de sécurité (Policies as Code), et garantie de la conformité (RGPD / AI Act). Anticipation de l'IA Agentique • Objectif : Préparer la plateforme à l'intégration future des technologies d'agents IA. • Périmètre : Veille technologique, prototypage des briques d'orchestration et de contrôle (HITL, guardrails spécifiques), et contribution à l'architecture cible. Accompagnement et transfert de compétences • Objectif : Assurer la montée en compétence et l'autonomie des équipes internes (Portail et Plateforme Data). • Périmètre : Acculturation, production de documentation (playbooks, runbooks), formation et support méthodologique. Activités détaillées Pour réaliser ces missions, le prestataire mènera les activités suivantes : • Ingénierie et industrialisation : Développement de pipelines CI/CD (GitLab), de scripts d'automatisation, d'Infrastructure as Code (Terraform), et de charts Helm. • Qualité et sécurité : Mise en œuvre des tests (unitaires, performance, SAST/SCA/SBOM), intégration des évaluations de LLM et des "guardrails" (input/output, LLMGuard) comme étapes bloquantes dans la CI. • Déploiement : o Gestion et déploiement des modèles d’IA génératif o Gestion et déploiement applicatif (solutions open source : LangFlow, LangFuse, OpenWebUI, n8n, LiteLLM, etc…) à l’échelle de l’entreprise. • Support et MCO : Résolution d'incidents de niveau 2/3, optimisation des performances et des coûts, assistance technique aux équipes. Exigences transverses • Respect du référentiel technique et méthodologique de l’Entreprise, des procédures en vigueur (tests/validation), des contraintes & délais du présent document et du cadre contractuel associé. • Respect des exigences sécurité & conformité (IAM, Vault/KMS, réseau privé, DPIA, RGPD/AI Act, journalisation/audit, résidence des données). PERIMETRE/COMPETENCES : • Jenkins (périmètre à harmoniser) Stack d'observabilité et d'évaluation LLM : • Prometheus, Grafana, Loki, OpenTelemetry… • LangSmith, Langfuse Environnements d'hébergement : • Google Cloud Platform (Landing Zone, Vertex AI, GKE) • Infrastructures On-Premise
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Offre d'emploi
Machine Learning Engineering
Publiée le
Agile Scrum
Big Data
CI/CD
12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Mission freelance
Développeur Fullstack JS – Outillage API Management & Architecture (NodeJS / VueJS / Angular)
Publiée le
Git
Javascript
Node.js
6 mois
430-600 €
Île-de-France, France
Télétravail partiel
Au sein du Digital Center d'un grand groupe bancaire, vous intégrez l'équipe "Architecture & Innovation". Cette entité transverse a pour vocation d'accélérer la transformation digitale du groupe en fournissant des expertises de pointe (Web, Mobile, Data, IA). Vous rejoignez spécifiquement l' équipe API , composée d'experts en architecture orientée services. Votre rôle est crucial : développer les outils transverses qui permettent aux métiers de définir, publier et gérer leur stratégie API. Vos Missions En tant que Développeur Fullstack Javascript, vous intervenez sur la conception et le développement de l'outillage interne (Design d'API, Portail d'administration des Gateways). Développement Fullstack : Concevoir et développer les fonctionnalités des outils de Design API et du portail développeur (Front & Back). Intégration & Gateway : Travailler sur les interactions avec les solutions d'API Management (type Apigee). Qualité & DevOps : Assurer les tests unitaires/intégration et intégrer vos développements dans la chaîne CI/CD (Jenkins, XL Deploy). Documentation : Garantir la pérennité du code via une documentation technique précise (code, packaging, mise en œuvre). Environnement Technique Langages : Javascript Expert (NodeJS, Angular, VueJS). Architecture : API RESTful, SOA, Micro-services. Outils & CMS : Drupal (composant technique portail), Git, Bitbucket, Jira. Cloud & Gateway : Connaissances GCP et Apigee X fortement appréciées.
Mission freelance
Devops delivery IA(H/F)
Publiée le
DevOps
3 mois
100-480 €
Paris, France
Télétravail partiel
TJM Max 480 euros non Négociable 2 Jours de TT non négociable Au sein de la DSI de SFR, la Direction Modernisation du SI, DATA et IA est en charge des projets et plateformes DATA&IA, avec un ADN de transformation des usages et des processus. Sur l'intelligence artificielle, plusieurs étapes ont été franchies en 2025 passant par la mise en place d'un processus d'identification des cas d'usages IA ainsi l'expérimentation consolidée sur une plateforme commune sur Google Cloud Plateform, avec à la clé quelques produits IA mis en production et déployés pour tous. Notre objectif pour 2026 est d'élargir la liste des produits IA et chercher une intégration simplifiée dans les processus Métiers. Augmenter notre capacité de production exige une disponibilité d'un processus et outillage DevOps exigeant et solide. Pour la bonne exécution de cet objectif, SFR est à la recherche d'une prestation avec un profil DevOps expérimenté pour piloter la structration de la chaîne de développement, de tests et d'observabilité. DEFINITION DE LA PRESTATION 'Dans le cadre de cette mission, la prestation adressera 4 volets majeurs en étroite relation avec l'équipe de développement et les chefs de projet : 1/ DevOps : - Réaliser un inventaire de la chaîne DevOps, la documenter et proposer une cible répondant aux enjeux d'automatisation et la maîtrise de la qualité, tout en respectant le cadre Valentine Cloud - Contribuer à la mise en oeuvre de la cible - Animer les travaux au global pour atteindre cette cible 2/ Monitoring & Troubleshooting : - Proposer une architecture et un outillage pour la mise en oeuvre d'une observabilité - Mettre en oeuvre cette architecture & piloter les contributions de l'équipe de développement - Accompagner l'onboarding des développeurs, testeurs et chefs de projet 3/ Pilotage de l'activité : - Contribuer à la mise en oeuvre des dispositifs de pilotage de l'activité Pour l'ensemble de ces activités, une gouvernance ainsi qu'un reporting régulier et clair doivent être mis en place. Indispensable DevOps, GitLab, Elastic, Python, NodeJS Profil ayant travaillé sur des projets IA sur Google Cloud
Mission freelance
Senior JAVA Developpeur (H/F)
Publiée le
Elasticsearch
Microservices
18 mois
500-550 €
Paris, France
Télétravail partiel
Notre client, Scale-Up Tech en forte croissance, accélère le renforcement de ses équipes techniques. Dans un contexte d’innovation soutenue (IA, nouveaux produits digitaux, optimisation de plateformes), le département Tech – plus de 350 collaborateurs – recherche plusieurs Développeurs Java (Juniors et seniors) pour renforcer ses squads produit et accompagner la montée en charge de ses applications web à fort trafic. Vos missions : Intégré à une squad produit composée d’un Product Manager, d’un Manager Java, de 5 développeurs et d’un testeur applicatif, vous interviendrez sur la conception, le développement et l’évolution d’applications web à fort trafic et haute disponibilité. Vos principales responsabilités : * * Concevoir et développer des fonctionnalités backend et ponctuellement front (80/20) en microservices. * Participer à la conception technique, aux revues de code et aux choix d’architecture. * Garantir la qualité, la performance et la robustesse du code. * Collaborer avec les équipes design, architecture, infra et data. * Contribuer aux bonnes pratiques : tests, CI/CD, revue de code, clean code. ### Stack technique * Langage : Java 21 (migration vers Java 25 prévue) * Framework : Spring Boot * Front : React / Redux * Messaging : Kafka * Base de données : PostgreSQL * Recherche : Elasticsearch * Infra : Docker, Kubernetes, AWS, Google Cloud * Méthodologie : Agile / Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
174 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois