L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 216 résultats.
Mission freelance
Tech Lead Sénior Solution Lead (550€ MAX)
Publiée le
Méthode Agile
1 an
400-550 €
Île-de-France, France
Télétravail partiel
● Expertise reconnue dans l'écosystème de l'Encaissement Autonome (SCO/Self Check Out), ● incluant la connaissance des contraintes matérielles, logicielles et des solutions du marché. ● Pilotage d’équipe avec réorganisations structurantes. ● Pilotage de projets d’envergure impliquant un déploiement à risque et à grande échelle. ● Pilotage transverse d’équipe et forte capacité à aligner les parties prenantes (Produit, Ops, ● Support, Infrastructure). ● Excellente connaissance des contraintes liées au pilotage d’éditeur et de fournisseurs de solutions d’encaissement / SCO. ● Anglais courant ● Solides connaissances techniques autour de l'intégration d’applications éditeur et capacité à prendre des décisions d’architecture complexes. ● Bonne connaissance sur la mise en place de KPI, de monitoring avancé (Observability) et du suivi de performance d’applications critiques. ● Solide expérience en méthode de delivery Agile (Scrum, Kanban) et outils associés. ● Bonnes connaissances techniques autour de : Test Automation, Performance, Monitoring, CICD (avec des technologies comme Kafka, Kubernetes, etc.). ● Connaissance générale d’architecture des SI incluant une culture Cloud (GCP/Azure/AWS), API Management (Apigee), et Data (Data Lake).
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Architecte Openshift / kubernetes
Publiée le
Kubernetes
Openshift
3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
En tant qu’Architecte OpenShift, vous serez responsable de la conception, de l’évolution et de la gouvernance technique des plateformes OpenShift du groupe. Vous interviendrez sur des projets stratégiques liés à la modernisation des infrastructures, à la sécurité, à la scalabilité et à l’automatisation des environnements cloud. Vos missions: Définir l’architecture cible des clusters OpenShift (on-premise et cloud hybride) Piloter les évolutions techniques et les migrations vers OpenShift 4.x Garantir la cohérence des déploiements avec les standards d’architecture du groupe Collaborer avec les équipes DevOps, Sécurité, Réseau et Exploitation Mettre en place des mécanismes d’automatisation (GitOps, CI/CD, Ansible, Terraform) Assurer la gouvernance des ressources, des quotas, des namespaces et des politiques de sécurité Participer à l’intégration des outils de monitoring, logging et observabilité (Prometheus, Grafana, ELK, etc.) Rédiger des documents d’architecture, des guides de bonnes pratiques et des modèles de référence Profil recherché: Bac+5 en informatique, ingénierie ou équivalent Expérience confirmée (minimum 5 ans) en architecture cloud ou conteneurisée Maîtrise d’OpenShift (4.x), Kubernetes, Linux et des principes d’infrastructure as code Connaissance des environnements bancaires ou réglementés (souhaitée) Capacité à travailler en transverse, à vulgariser des concepts techniques et à accompagner le changement Esprit d’analyse, rigueur et leadership technique 🛠️ Compétences techniques clés: DomaineTechnologies / Outils: ConteneurisationOpenShift, Kubernetes, DockerAutomatisationGitOps, ArgoCD, Ansible, TerraformCI/CDJenkins, GitLab CI, Nexus, SonarQubeObservabilitéPrometheus, Grafana, ELK, DynatraceSécuritéRBAC, Network Policies, SSO, Vault, OPACloudOpenStack, Azure, AWS (selon contexte projet)
Offre d'emploi
DevOps/SysOps/LLM/RAG
Publiée le
DevOps
Large Language Model (LLM)
RAG
3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
Offre d'emploi
Ingénieur Cloud/DevOps H/F
Publiée le
46k-60k €
75001, Paris, Île-de-France
Ingénieur Cloud/DevOps H/F - Paris Experis recherche des Ingénieurs Cloud/DevOps (H/F) pour différents clients grands comptes en Île-de-France. Vos missions: Participer à la conception, la mise en œuvre et la gestion des infrastructures Cloud (AWS ou Azure) Automatiser le déploiement et la configuration des environnements via Ansible/Terraform Administrer et orchestrer des clusters Kubernetes (EKS, AKS…) Implémenter les CI/CD (GitLab CI, Azure DevOps, Jenkins…) Assurer la fiabilité, la sécurité et la scalabilité des plateformes Cloud Collaborer avec les équipes de développement, sécurité et réseau
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
Publiée le
Azure
Python
1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Developpeur Python Senior ( 10 ans ! )
Publiée le
Python
1 an
400-460 €
Paris, France
Le client est un leader mondial de l’assurance , engagé dans une transformation digitale majeure , avec des opérations dans plus de 80 pays . Services Fourniture de services IT standardisés à l’ensemble des entités opérationnelles, afin de favoriser l’alignement du portefeuille applicatif, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenus legacy (Documentum, FileNet, NAS) par la plateforme Content Management eXperience (CMX) , développée par nous : une solution clé en main, en mode SaaS , offrant des API REST et une interface web , pleinement alignée avec les standards Groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % . L’enrichissement de ses capacités — ajout de fonctionnalités innovantes, de nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès et son évolution continue. Livrables Maintenance et évolution des outils cœur développés en Python , ainsi que le prototypage de nouveaux services à forte valeur ajoutée , en s’appuyant notamment sur l’ IA générative , les technologies sémantiques et les architectures cloud-native , afin de générer un impact métier à l’échelle du Groupe ; Collaboration étroite avec les parties prenantes métiers , les product managers et les équipes d’ingénierie pour transformer les besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : Audit, stabilisation et refactoring de scripts Python existants ; Garantie d’un code propre, conforme aux standards PEP8 , avec une couverture complète de tests et une documentation appropriée ; Harmonisation de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel vers des workflows techniques automatisés , ou encore la définition de stratégies d’archivage et de compression de fichiers ; Innovation et prototypage : Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services orientés cas d’usage (tagging automatisé, recherche sémantique, contrôles de qualité de contenus) ; Conception de preuves de concept (POC) , cadrage et challenge des cas d’usage et besoins spécifiques via du développement rapide en environnement laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Réalisation de revues de code , partage des bonnes pratiques et mentorat des équipes sur le Test-Driven Development (TDD) , le CI/CD et les principes de clean architecture ; Contribution aux chaînes DevOps : CI/CD, infrastructure as code (Terraform, CloudFormation) et déploiements automatisés. Expertise Expertise avancée en développement Python , appliquée à des applications orientées données ou gestion de contenus ( 10 ans d’expérience ) ; Langages et outils principaux : Python (avancé), Git, Bash, Java, JavaScript (React / Vue) ; Données & IA : Pandas, expressions régulières, parsing JSON/XML, prompt engineering ; Technologies data avancées : NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Tests & Qualité : Pytest, frameworks BDD (Behave / Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Offre d'emploi
Ingénieur DevOps IA
Publiée le
Linux
Python
1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Développeur Python (H/F)
Publiée le
Python
3 ans
Île-de-France, France
Context: Le client est un leader mondial de l’assurance engagé dans une transformation digitale majeure. Services: Fourniture de services informatiques standardisés à l’ensemble des entités du groupe, en favorisant l’alignement du portefeuille, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenu historiques (Documentum, FileNet, NAS) par une plateforme CMX (Content Management eXperience) : une solution clé en main, en mode SaaS, proposant des API REST et une interface web, entièrement alignée avec les standards du groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % en interne, et l’enrichissement de ses capacités — ajout de fonctionnalités innovantes, nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès à long terme. Deliverables: Maintenance et évolution des outils cœur en Python, prototypage de nouveaux services à forte valeur ajoutée — en s’appuyant sur des technologies telles que l’IA générative, les technologies sémantiques et les patterns cloud-native — afin de générer un impact métier à l’échelle du groupe ; Collaboration étroite avec les parties prenantes métiers, les product managers et les ingénieurs pour transformer des besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : audit, stabilisation et refactorisation de scripts Python existants ; Garantie d’un code propre, conforme aux normes PEP8, avec des tests complets et une documentation associée ; harmonisation et développement de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel en workflows techniques automatisés, stratégies de compression et de regroupement de fichiers ; Innovate & Prototype: Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services répondant à des cas d’usage ciblés (tagging automatique, recherche sémantique, contrôle qualité des contenus) ; Conception de proofs of concept (POC), définition et remise en question des cas d’usage et besoins spécifiques via du prototypage rapide à des fins de laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Revue de code, partage des bonnes pratiques et mentorat des pairs sur le développement piloté par les tests (TDD), le CI/CD et l’architecture propre ; Contribution aux pipelines DevOps — CI/CD, infrastructure as code (Terraform, CloudFormation), déploiements automatisés. Expertise: Expertise en développement Python, sur des applications orientées données ou contenu (environ 10 ans d’expérience) ; Core Languages & Tools: Python (avancé), Git, Bash, Java, JavaScript (React/Vue) ; Data & AI: Pandas, regex, parsing JSON/XML, prompt engineering, NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps: AWS (S3, Lambda), CI/CD (Jenkins/GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Testing & Quality: Pytest, frameworks BDD (Behave/Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Mission freelance
Responsable technique OS windows, linux, Vmware H/F
Publiée le
Administration linux
Administration Windows
VMware
6 mois
580-620 €
Malakoff, Île-de-France
Télétravail partiel
Prendre la responsabilité de l'offre de services OS (Windows et Linux), piloter l'évolution, l'amélioration et la cohérence des solutions déployées. •Piloter le budget du service : suivi des coûts, optimisation budgétaire, reporting financier. •Mettre en place et maintenir les templates OS ainsi que les standards associés pour l'ensemble du parc, en garantissant l'harmonisation au sein du groupe. •Assurer la gestion, la planification et la bonne réalisation des maintenances pour l'ensemble du parc OS, en garantissant disponibilité et conformité. •Garantir le maintien en conditions opérationnelles du parc OS (Windows/Linux), incluant le suivi du support, la gestion des incidents, la résolution des problèmes et la gestion courante du « run ». •Gérer l'obsolescence des infrastructures OS (identification, plans d'actions, suivi des renouvellements, etc.). •Être l'interlocuteur privilégié des Software Asset Managers (SAM) pour la gestion des licences, le suivi contractuel et l'optimisation des coûts associés aux environnements Windows/Linux. •Animer et fédérer les communautés OS au sein du groupe pour favoriser le partage des bonnes pratiques, la mutualisation des retours d'expérience, et assurer la cohérence technique. •Coordonner avec les équipes techniques internes et externes (notamment avec l'Inde) pour garantir la qualité de service et la sécurité sur l'ensemble des environnements OS. •Travailler dans un contexte d'infrastructures hybrides, mêlant solutions on-premise et cloud AWS, en veillant à garantir la cohérence, la compatibilité et la bonne intégration des services OS proposés. •Mettre en place et suivre les KPIs relatifs à la santé, la conformité et la performance du parc. •Assurer une veille technologique sur l'évolution des systèmes d'exploitation et proposer des plans d'amélioration continue. 2.3. Expertises techniques attendues La proposition devra inclure les compétences et expertises suivantes : •Expérience significative dans la gestion de services ou le management de produits autour des environnements OS (Windows et/ou Linux). •Connaissances solides dans l'administration, la gestion du cycle de vie, la maintenance et le « run » des systèmes d'exploitation en contexte d'entreprise. Solides compétences en architecture : capacité à concevoir, challenger et faire évoluer les architectures systèmes, en tenant compte des enjeux de sécurité, de performance et d'évolutivité. •Compréhension des enjeux et contraintes d'environnements hybrides (on-premise/cloud AWS) et capacité à adapter les standards, templates et process OS à ce contexte. •Expérience dans le suivi et le pilotage budgétaire d'un service IT. •Expérience dans la définition de standards, la conception de templates et l'animation de communautés techniques. •Capacité à piloter des projets transverses et à assurer la coordination avec les différentes parties prenantes (IT, Métiers, SAM, éditeurs, équipes internationales dont Inde…). •Maîtrise de l'anglais obligatoire : travail quotidien en anglais, interactions régulières avec des équipes internationale (Inde). •Sens de l'organisation, autonomie, rigueur, bonne capacité d'analyse. •Excellentes qualités de communication et aptitude à travailler en équipe.
Offre d'emploi
Administrateur système & Ops (H/F)
Publiée le
36k-45k €
Nantes, Pays de la Loire
Administrateur système & Ops (H/F) - Nantes Nous recherchons un(e) Administrateur(trice) Système avec une orientation Ops pour renforcer l'équipe technique de notre client, à Nantes. Tu interviendras sur l'administration et l'évolution de leurs environnements serveurs, tout en participant à l'automatisation, la supervision et l'amélioration continue de leurs infrastructures. Tes missions : Assurer la gestion et le maintien en conditions opérationnelles des systèmes. Gérer et optimiser les environnements cloud et virtualisation (AWS, Azure, VMware, Proxmox, etc.). Mettre en place et maintenir les outils de supervision et monitoring. Participer aux projets d'automatisation et d'infrastructure as code (Ansible, Terraform, CI/CD). Travailler avec les équipes de développement et de support pour améliorer la fiabilité, la performance et la sécurité des systèmes. Contribuer à la gestion des incidents et à la résolution de problèmes. Documenter les procédures et partager les bonnes pratiques.
Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Offre d'emploi
Expert AD
Publiée le
Active Directory
Azure Active Directory
Powershell
24 mois
40k-58k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
Cahier des Charges – Expert Active Directory Infrastructure & Sécurité 1. Contexte L’équipe Active Directory Control Tower , rattachée au stream Groupe One Access du programme Ensemble , assure la disponibilité et la sécurité globale de la forêt TES. Deux volets : Run : conformité, support incidents, pilotage incidents sécurité. Projets : initiatives liées à l’infrastructure et à la sécurité AD. 2. Objectif de la mission Renforcer l’équipe avec un expert Active Directory disposant d’une expertise avancée en infrastructure et sécurité , capable d’intervenir sur des environnements complexes et hybrides (on-premise + cloud). 3. Périmètre et responsabilités Conception & Gestion AD : multi-domaines/forêts, réplication, rôles FSMO, SYSVOL (DFSR). Support & Troubleshooting L3 : incidents AD, RCA, coordination GSOC. Sécurité & Conformité : durcissement AD, RBAC, JIT/JEA, audit, SIEM. PKI : déploiement et maintenance ADCS, intégration TLS/Smartcard. Cloud & Hybrid Identity : Azure AD (Entra ID), AD Connect, Conditional Access, AWS IAM. Automatisation : scripts PowerShell avancés, Azure Automation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
216 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois