L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 212 résultats.
Offre d'emploi
Administrateur Systèmes et réseaux H/F
Publiée le
35k-50k €
Paris, Île-de-France
Télétravail 100%
Vous travaillerez dans le cadre du déploiement et de l'exploitation d'une AI Factory à très grande échelle, reposant sur plusieurs clusters. Vous serez en charge de l'architecture, de l'optimisation et de l'évolution des infrastructures réseaux, systèmes et GPU fabrics alimentant des charges IA critiques (training, fine-tuning, inference). L'environnement est international, hautement distribué (Europe, Amérique du Nord, Asie) et orienté performance extrême, faible latence et scalabilité horizontale. Architecture & design de la GPU Fabric : -Concevoir et faire évoluer des architectures réseau haut débit, faible latence, adaptées aux NVL72 et aux workloads IA massivement parallèles -Définir les topologies réseau (leaf-spine, fat-tree, dragonfly le cas échéant) pour : Interconnexion intra-NVL72, Scale-out multi-racks / multi-clusters -Sélectionner et valider les technologies : InfiniBand HDR / NDR, Ethernet Spectrum / RoCEv2, Dimensionner les fabrics pour des usages IA à très grande échelle (NCCL-heavy, all-reduce intensif) Performance, RDMA & communications GPU : -Piloter le développement, l'optimisation et le tuning des communications RDMA -Piles RDMA : libibverbs, rdma-core, NVPeerMemory -Optimisations GPUDirect / GPUDirect-RDMA -Garantir des transferts GPU / GPU et GPU / NIC à très haute performance, sans surcharge CPU -Optimiser les communications collectives : NCCL, MPI / CUDA-aware MPI, Identifier et lever les goulots d'étranglement réseau, mémoire et CPU/GPU. Intégration Kubernetes & workloads IA : -Concevoir l'intégration réseau de clusters GPU dans des environnements Kubernetes -Gérer l'exposition et l'isolation des interfaces RDMA : Device Plugin, Network Operator / CNI avancés -Garantir le bon fonctionnement des workloads conteneurisés IA : Training distribué, Jobs MPI / NCCL, Pipelines data GPU Exploitation, observabilité & troubleshooting : -Mettre en place et exploiter des solutions de monitoring avancé : Latence, bande passante, congestion, erreurs -Outils : Prometheus, Grafana, NetQ, UFM (ou équivalents) -Analyser les performances réseau et GPU fabric en production -Proposer et implémenter : Ajustements MTU, Affinités CPU/GPU, Tuning NIC, switch et firmware -Assurer le support niveau 2/3 sur incidents critiques
Offre d'emploi
Lead AI Engineer
Publiée le
AI
GenAI
Large Language Model (LLM)
60k-70k €
Paris, France
Télétravail partiel
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Offre d'emploi
Expert Technique DevOps
Publiée le
Ansible
Dynatrace
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Le périmètre d'expertise porte sur les technologies Open (Linux, WebSphere, CFT, MQ, Oracle, autosys…), le monitoring (expertise sur Dynatrace) ainsi que le DevOps (Cloud, CI/CD, etc...). Une part d'activité pourrait porter sur l'utilisation de l'IA comme facteur de gain de productivité sur les activités de Production. La mission demandera la participation aux projets techniques transverses à l'APS, participation technique qui demande une expertise ainsi qu'un suivi de bout en bout des projets confiés. Certains projets pourront demander de coordonner plusieurs acteurs (Migration d'outils de backup/restore, migration d'outils groupe, migration vers un nouveau type de cloud, changement d'outil de CD, projets de mise en conformité cyber ou dans le cadre de DORA, amélioration de la qualité de la production, etc…). Compétences techniques requises Une expérience forte est attendue sur la partie technique. Les technologies mises en œuvre incluent : Cloud IBM VM Linux (80%) / Windows Kubernetes, Openshift, Docker, HashicorpVault, Terraform, Sysdig, Helm, etc... CFT, MQ Series Ordonnanceur : Autosys Oracle (Exadata, ExaCC, ..), SQL Server, PostgreSQL, MongoDB, Cassandra Kafka, Zookeeper, ElasticSearch, etc... Dynatrace, Kibana, Grafana ArgoCD, Ansible Tower, Digital.ai Release GitlabCI, Jenkins, Ansible, etc... Missions attendues Expertise et support aux OPS sur les différentes technologies utilisées (Autosys, Cloud public IBM, Oracle, RHEL, Windows server, Websphere, Kafka, Flink, Cassandra, HADOOP, MQ, CFT, Kubernetes, Docker, Terraform, Helm) Expertise et support sur le monitoring applicatif (Dynatrace, Kibana, ElasticSearch, Grafana) Amélioration de l'exploitation, amélioration de la qualité de la production Réalisation des opérations techniques pour mettre en œuvre des projets, évolutions, corrections et incidents, en respectant les règles et standards en vigueur Connaissance des contraintes d'architecture techniques et sécurité (volet OPS / Infra) Prise en charge de projets de bout en bout (étude + réalisation) en lien avec les équipes OPS et équipes DEV
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
Développeur Fullstack JS – Outillage API Management & Architecture (NodeJS / VueJS / Angular)
Publiée le
Angular
Javascript
Node.js
6 mois
490-600 €
Île-de-France, France
Télétravail partiel
Le Contexte Au sein du Digital Center d'un grand groupe bancaire, vous intégrez l'équipe "Architecture & Innovation". Cette entité transverse a pour vocation d'accélérer la transformation digitale du groupe en fournissant des expertises de pointe (Web, Mobile, Data, IA). Vous rejoignez spécifiquement l' équipe API , composée d'experts en architecture orientée services. Votre rôle est crucial : développer les outils transverses qui permettent aux métiers de définir, publier et gérer leur stratégie API. Vos Missions En tant que Développeur Fullstack Javascript, vous intervenez sur la conception et le développement de l'outillage interne (Design d'API, Portail d'administration des Gateways). Développement Fullstack : Concevoir et développer les fonctionnalités des outils de Design API et du portail développeur (Front & Back). Intégration & Gateway : Travailler sur les interactions avec les solutions d'API Management (type Apigee). Qualité & DevOps : Assurer les tests unitaires/intégration et intégrer vos développements dans la chaîne CI/CD (Jenkins, XL Deploy). Documentation : Garantir la pérennité du code via une documentation technique précise (code, packaging, mise en œuvre).
Mission freelance
Site Reliability Engineer
Publiée le
Ansible
Azure
Git
12 mois
Paris, France
Télétravail partiel
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Mission freelance
242290/DEVELOPPEUR PHP/SYMFONY/MysQL/NextJS
Publiée le
API Platform
MySQL
Next.js
6 mois
400-410 £GB
Ivry-sur-Seine, Île-de-France
DEVELOPPEUR PHP/SYMFONY/MysQL/NextJS Votre rôle consistera à : • Elaborer de nouvelles solutions techniques pour répondre aux besoins fonctionnels et aux enjeux de performance sur un socle PHP8, Symfony 7.x, Api Platform 3.x, MySQL 8, NextJS/TypeScript, le tout en architecture hexagonale. • Réaliser des développements selon les spécifications et la solution d’implémentation définie • Réaliser des tests unitaires et des tests d’intégration avant livraison en recette • Assurer les codes reviews d’autres développeurs • Maintenir l’opérabilité des applications et participer aux résolutions d’incidents Projet de modernisation & modularisation du backoffice incluant une prise en compte de l’obsolescence technique, le tout dans en mode « MoveToCloud ». Vous pourrez aussi intervenir sur toutes les phases du projet, de l’analyse à la mise en ligne de nouvelles fonctionnalités. Objectifs et livrables Votre rôle consistera à : • Elaborer de nouvelles solutions techniques pour répondre aux besoins fonctionnels et aux enjeux de performance sur un socle PHP8, Symfony 7.x, Api Platform 3.x, MySQL 8, NextJS/TypeScript, le tout en architecture hexagonale. • Réaliser des développements selon les spécifications et la solution d’implémentation définie • Réaliser des tests unitaires et des tests d’intégration avant livraison en recette • Assurer les codes reviews d’autres développeurs • Maintenir l’opérabilité des applications et participer aux résolutions d’incidents Compétences demandées Compétences Niveau de compétence Symfony PHP Expert React / NextJS Avancé GIT Avancé MYSQL Expert Cloud provider Élémentaire API platform 3.x Confirmé outil IA Élémentaire DOCKER Élémentaire systeme unix Avancé
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)
Publiée le
AI
Ansible
AWS Cloud
3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
Mission freelance
Architecte d'Entreprise DLP
Publiée le
Architecture
Prévention des pertes de données (DLP)
TOGAF
3 ans
Paris, France
Télétravail partiel
🔍 Nous recherchons un Enterprise Security Architect expérimenté pour intervenir sur un projet majeur de Data Loss Prevention (DLP) au sein d’un programme global de cybersécurité. Objectif : définir le modèle DLP groupe, le blueprint d’architecture, les scénarios de fuite, et cadrer les exigences des entités. 📍 Paris 📅 Démarrage ASAP ✅ Co-concevoir le modèle DLP & le storytelling (enjeux, risques, gouvernance) ✅ Analyser l’architecture Data & sécurité du Groupe et identifier les risques de fuite ✅ Définir & documenter de nouveaux scénarios : server-to-server, IA, agentic AI… ✅ Consolider les exigences DLP des entités internationales ✅ Évaluer les risques & mesures de prévention associées ✅ Produire les livrables exécutifs : – Blueprints & templates d’architecture – Use cases (Confluence) – Présentations PowerPoint – Meeting minutes, mise à jour SharePoint ✅ Piloter les échanges et maintenir une approche architecture high-level (pas d’implémentation)
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
Data Scientist / MLOps Engineer
Publiée le
DevOps
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Le pôle est composé d'une vingtaine de personnes dont une majorité de Deep Learning Scientists. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe elle-même. La mission sera d'une durée minimale de 3 mois. La personne travaillera en binôme avec un MLEng de l'équipe. Disposer d'une habilitation défense est un plus pour la mission. La capacité à venir sur le site parisien 2 jours par semaine est aussi un plus. Mission Assurer la maintenance de la stack d'outils de l'équipe et notamment : Participer à rendre les algorithmes IA compatibles d'architecture GPU Blackwell Mettre à jour les dépendances de la codebase (Python, CUDA) Participer au développement de nos outils de MLOps en général Et aussi : Mettre en place les processus permettant une maintenance pro-active et continue de la codebase Participer à la montée en compétence des data scientists de l'équipe sur leur compétence SW Participer à la mise en place de notre stack environnement classifié Stack technique Python (3.10+), PyTorch et TensorFlow pour nos frameworks de deep learning PostgreSQL (PostGIS) pour la gestion de nos bases de données, Airflow, des dockers orchestrés par Nomad de Hashicorp Environnements DevOps utilisant principalement Ansible, Terraform pour l'automatisation et la suite Prometheus / Grafana pour le monitoring Cloud multi-fournisseurs (AWS & OVH) et environnement de développement classifié on-premise Compétences requises Une formation en Software Engineering, en apprentissage automatique, en vision par ordinateur ou dans un domaine similaire Au moins 5 ans d'expérience en développement back-end en Python et / ou en ML engineering Techniquement : D'une très bonne connaissance de Python D'une expérience en MLOps et d'une connaissance de TensorFlow, PyTorch, CUDA Une connaissance de la manipulation de données géospatiales est un plus En terme de soft skills : Vous êtes pédagogue et aimez coacher vos collègues pour aider les Deep Learning Scientists
Mission freelance
Coordinateur Technique / CTO Office
Publiée le
API
DevOps
Microservices
12 mois
Paris, France
Télétravail partiel
Nous recherchons une prestation de coordinateur technique expérimenté. Cette prestation contribuera notamment à : assurer la continuité opérationnelle de toutes les phases de développement du pôle (delivery, run...), onboarder les nouveaux Engineering Managers, structurer la stratégie technique, développer des nouvelles pratiques (comme l’usage de l’IA générative), animer des réflexions techniques sur des points spécifiques (plateformisation, observabilité...). Il devra travailler en binôme avec le coordinateur end-to-end, sous la supervision directe du CTO du pôle Objectifs et livrables Responsabilités principales, en binôme avec le coordinateur end-to-end Sujets opérationnels et end-to-end urgents 1. Continuité opérationnelle & onboarding EM Mettre en place un playbook d’onboarding EM. Clarifier rituels, instances et interfaces (produits / chapters / TA). Synchronisation avec delivery performance sur les produits à livrer et la mise en place du maintain. 2. Poursuite des chantiers E2E Poursuivre et alimenter la démarche E2E avec des groupes de travail élargis (EM, standard techniques et démarche qualité...). 3. Coordination des réflexions techniques urgentes Conduire des arbitrages flash (note en 1–2 pages, décision & suivi). Orchestrer les revues techniques quand nécessaire, sur des sujets opérationnels produits nécessitant un regard CTO ou sur des chantiers transverses (observabilité par exemple). 4. Stratégie technique Co-construire une roadmap technique pour répondre aux enjeux du client : deployabilité par design, Company readyness, Run readyness, Excellence software et qualité, Cutting-edge AI, Composabilité et modularité 5. Nouveaux modes de travail Usage de l’IA générative dans les pratiques de développement et d’UI/UX Plateformisation et observabilité Réflexion open source/écosystème 6. Clarification des rôles & organisation Mettre en œuvre et adapter le RACI déjà défini. Recommander des évolutions organisationnelles pragmatiques – pas de big bang. Cette liste n’est pas exhaustive et sera précisée au cours de la mission. Les interactions avec le coordinateur end-to-end seront à préciser lors de la mission, avec des niveaux d’implications différents en fonction des sujets (pour certains, le coordinateur technique sera en lead, pour d’autres il sera en support). Profil recherché Expérience 10+ ans en ingénierie logicielle / architecture / coordination technique. Expérience probante en conduite du change et leadership transverse en contexte multi-produits / multi-chapters. Pratique de gouvernance technique (Architecture Review Board / Tech Authority). Compétences techniques (au moins plusieurs parmi) Architecture cloud (idéalement Azure), microservices, APIs, events. DevOps/SRE : CI/CD, observabilité, fiabilité, sécurité, performance. Data/AI : data platforms, gouvernance, MLOps, IA générative. Sécurité & Compliance, FinOps, qualité logicielle, E2E/flow engineering. Culture produit et delivery à l’échelle . Compétences comportementales Excellente coordination et facilitation (atelier, arbitrage, décision). Clarté rédactionnelle et synthèse exécutive. Sens du pragmatique : impact rapide sans « big bang ». Français courant, anglais professionnel. Indicateurs de succès Onboarding EM : 100 % des nouveaux EM E2E : amélioration mesurée Stratégie technique validée et communiquée TA /chapter: décisions tracées et adoption des standards ≥ 80 %. GenAI: plan d'usage de l'IA générative et première mise en œuvre Clarté orga : RACI approuvé et utilisé • Satisfaction des parties prenantes clés ≥ 4/5.
Mission freelance
Machine Learning Ops
Publiée le
MLOps
RAG
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178
Publiée le
5 mois
450-525 €
Guyancourt, Île-de-France
Télétravail partiel
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
212 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois