L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 734 résultats.
Offre d'emploi
Ingénieur DevOps SRE Azure
AIS
Publiée le
Azure
DevOps
Site Reliability Engineering (SRE)
1 mois
45k-48k €
240-480 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : - Identifier, dès la phase d'idéation, avec les concepteurs et les développeurs, les éléments permettant l'exploitabilité, la performance et la supervision sur tout le cycle de vie des produits - Accompagner la squad sur les dimensions performance, robustesse, sécurité et fiabilité tout au long du cycle de vie des produits SI - Contribuer à la mise à disposition des environnements - Automatiser et industrialiser dans une logique « DevOps » pour servir le déploiement continu - Contribuer à, et garantir, l'exploitabilité et l'observabilité des produits - Contribuer à l'amélioration continue du produit - Préconiser les éléments liés au Capacity planning - Etre garant de la complétude du dossier d'exploitabilité Connaissances technique : - Des bonnes pratiques Devops et/ou SRE - Observabilité : Grafana, Prometheus, Alertmanager, Dynatrace, Kibana, ... - Hébergement application : Azure, Kubernetes... - CI/CD : Pulumi, Helm, Github, Ansible, Jenkins... - Testing - Performance : Jmeter, Postman, Gatling..
Mission freelance
🚀 Mission Freelance – Développeur Python / AWS / IA (H/F)
Tenth Revolution Group
Publiée le
.NET
Angular
AWS Cloud
12 mois
320-510 €
Le Havre, Normandie
📍 Localisation : Calais 🏢 Présence : 1 jour sur site / semaine — télétravail le reste du temps 📅 Durée : Mission long terme ⚡ Démarrage : Dès que possible 🎯 Contexte Dans le cadre d’un programme stratégique orienté conception de solutions basées sur l’intelligence artificielle , nous recherchons un Développeur Python confirmé à senior pour intégrer une équipe d’architecture technique. L’environnement est structuré, exigeant et à forte contrainte technique : ce rôle s’adresse à un profil capable d’être rapidement autonome , opérationnel dès son arrivée et à l’aise dans des contextes complexes sans encadrement rapproché. 🛠️ Vos missions Concevoir et développer des solutions IA en Python Intégrer vos développements dans un écosystème applicatif existant et complexe Respecter des process techniques stricts et normés Collaborer étroitement avec l’équipe d’architecture Garantir la qualité, la robustesse et la maintenabilité du code 🧠 Environnement technique Langage : Python Cloud : Azure (AKS, Azure SQL) CI/CD : GitHub Monitoring : Grafana Backend historique : .NET Frontend : Migration Angular → React
Mission freelance
DevOps Azure IaC (H/F) - LILLE
Espace Freelance
Publiée le
Azure DevOps
Terraform
12 mois
400-480 €
Lille, Hauts-de-France
REF : EFN/NCHDU/Lille Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un DevOps Azure IaC (H/F) - LILLE Mission à pourvoir en régie sur Lille Présence sur site : 3 jours / semaine Localisation du consultant : Haut-de-France Obligatoire Compétences obligatoires : Azure ; Azure Devops ; Infra as code, terraform, docker, kubernetes Mission : Accompagner les équipes sur l’utilisation des outils et la mise en place des pipelines CI/CD. Conseiller sur les choix techniques et apporter une expertise cloud et conteneurs. Administrer les environnements de développement et de déploiement (Azure, Kubernetes, outils DevOps). Assurer le maintien en conditions opérationnelles et les montées de version des plateformes. Diagnostiquer et résoudre les incidents en recette et en production. Jouer un rôle de référent technique : coordination, documentation, supervision et capacity planning.
Offre d'emploi
Expert DBA SQL Server / Cloud Azure
Gentis Recruitment SAS
Publiée le
Azure
Azure DevOps
Database
12 mois
Paris, France
Contexte de la mission Au sein de la DSI du client, l’équipe DBA intervient sur l’architecture, le build et le maintien en condition opérationnelle des bases de données utilisées par différentes applications critiques. Dans un contexte cloud first , l’environnement évolue progressivement vers des solutions Azure et AWS , avec une forte composante SQL Server sur Azure . Le consultant interviendra au sein d’une équipe DBA et collaborera étroitement avec les équipes infrastructure, développement et opérations afin d’accompagner les projets techniques et garantir la disponibilité des environnements de bases de données. Missions principales Le consultant interviendra notamment sur les activités suivantes : • Assurer l’architecture, le déploiement et l’administration des bases de données SQL Server • Maintenir et optimiser les environnements de bases de données en production • Participer à la mise en place et à l’amélioration des solutions d’infrastructure database • Accompagner les équipes de développement dans l’optimisation et l’évolution des bases de données • Mettre en œuvre des architectures haute disponibilité (clusters SQL Server, failover, Always On) • Automatiser les déploiements et l’administration via scripting et outils DevOps • Participer à l’amélioration continue des processus d’infrastructure et d’exploitation • Rédiger la documentation technique (architecture, HLD / LLD, procédures) • Contribuer aux projets d’évolution vers les services PaaS database dans le cloud Environnement technique Bases de données SQL Server (principal) PostgreSQL MongoDB Oracle Cloud Azure AWS Infrastructure Windows Server SQL Server clusters / Always On Environnement hybride On-premise / Cloud Automatisation et DevOps Azure DevOps CI/CD Bicep Scripting PowerShell Python Bash Monitoring Zabbix Prometheus Grafana
Mission freelance
Ingénieur DevOps Azure
Codezys
Publiée le
Azure DevOps Services
Docker
Java
12 mois
Lille, Hauts-de-France
Contexte de la mission Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Mission freelance
Développeur Scala/Spark/Python/AWS (h/f)
emagine Consulting SARL
Publiée le
1 mois
570-590 €
92250, La Garenne-Colombes, Île-de-France
Localisation: La Garenne-Colombes / 50% télétravail par semaine Durée: 3 ans Résumé Nous recherchons un Développeur Data pour rejoindre notre équipe Produit, dont la mission principale sera de développer des flux de données tout en garantissant la qualité technique des processus data. Le candidat idéal devra posséder une expertise rigoureuse en Python et Scala. Responsabilités : Développer et maintenir des fonctionnalités complexes en Python et Scala. Garantir la fidélité de l'implémentation vis-à-vis des demandes et des micro-interactions. Concevoir et faire évoluer une architecture back-end modulaire et scalable (composants réutilisables). Assurer la gestion et l'optimisation des flux de données. Optimiser les performances des ingestions (temps de chargement, qualité, retry). Collaborer activement aux rituels agiles et aux revues de code pour garantir la qualité et la maintenabilité. Documenter les choix techniques et l'architecture. Compétences requises : Connaissance dans la mise en place de workflow data incluant plusieurs couches et des contrôles de données. Excellente maîtrise des services AWS (Lambda, Glue, Redshift, Step Function, DynamoDB) ainsi que certains services Azure (Azure Function, CosmosDB). Expérience solide en développement Python et Scala. Maîtrise de certains outils de streaming Kafka, Kinesis, Event Hub, Event GRID. Maîtrise de Git et des workflows CI/CD. Anglais courant.
Mission freelance
PRODUCT MANAGER CLOUD SENIOR H/F
AXONE BY SYNAPSE
Publiée le
AWS Cloud
Azure
Cloud
6 mois
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Product Manager Cloud Senior H/F afin d’accompagner un programme stratégique de convergence cloud. Le contexte est celui de la construction d’une factory cloud de nouvelle génération, pensée from scratch, mais devant composer avec un existant riche, hétérogène et déjà exposé à différents usages. Le poste vise à apporter la vision produit qui manque aujourd’hui entre les équipes techniques, les responsables produit et les entités métier/marketing. La personne attendue devra structurer les priorités de services, orienter les choix d’offres, assurer la cohérence des trajectoires de compatibilité avec le legacy et contribuer à positionner les futurs services dans un environnement interne complexe, multi-entités et fortement stratégique. Objectif et livrable: L’objectif principal est de définir, prioriser et cadrer l’offre de services cloud à construire au sein de la nouvelle factory, en articulation avec les équipes techniques, produit et marketing. Le consultant devra clarifier les services à lancer, leur ordre de priorité, leurs dépendances avec les offres existantes et les contraintes de compatibilité/migration. Livrables attendus: vision produit consolidée sur le périmètre cloud ; cartographie des services cibles et des services legacy à rapprocher ; matrice de priorisation des offres et fonctionnalités ; recommandations de positionnement, de cohérence catalogue et de trajectoire d’exposition API ; contribution au cadrage des interactions entre product management, product owners, architecture et équipes marketing. Compétences attendues: Le poste requiert une combinaison rare de vision produit et de compréhension profonde des environnements cloud. La personne devra savoir analyser un portefeuille de services, comprendre un paysage technologique complexe, arbitrer les priorités et dialoguer avec des profils d’architectes, d’ingénieurs et de responsables produit. Une bonne lecture des enjeux de compatibilité, de migration, de standardisation et de compétitivité est indispensable. Compétences techniques attendues : Product Management senior appliqué à des offres technologiques complexes ; Expérience sur des produits cloud / infrastructure ; Solide maîtrise d’au moins 3 des environnements suivants : IaaS, PaaS, CaaS (OpenStack, Kubernetes, OpenShift) et bonne connaissance des hyperscalers AWS, Azure, GCP ; Storage cloud et appliance (ex. NetApp) ; Bare metal et orchestration / provisioning des ressources bare metal ; Solutions de provisioning déclaratif (SOM/ROM) et intent-based (K8S/CRD, Crossplane, etc.) ; Gestion d’IP Fabric et architecture réseau niveau 2, avec appréciation de la connaissance de switches de vendors spécifiques ; IAM pour clients internes, externes et administration ; Outils cloud couches 3 à 7 : reverse proxy, forward proxy, WAF, NAT Gateway, firewall, etc. ; Outils Ops transverses : Vault, Bastion, DNS, NTP, chaînes CI/CD, etc. ; Composants de chiffrement : KMS, HSM, gestion des certificats ; Outils d’observabilité. Capacité à définir une stratégie produit , piloter une roadmap et produire des livrables structurés ( PRD, PRFAQ, user stories ) ; Analyse de legacy et stratégie de convergence ; Construction de catalogue de services / offres cloud ; Exposition de services et d’API ; Compréhension des environnements d’infrastructure, provisioning et automatisation ; Expérience des méthodologies agiles : Scrum, SAFe, Kanban ; Bilingue français / anglais impératif ; Formation Bac+5 (ingénieur, informatique ou business). Atouts complémentaires : Passage chez un cloud provider, un hébergeur, un éditeur SaaS ou un opérateur télécom.
Mission freelance
Lead Plateforme MLOps / LLMOps
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI
12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Mission freelance
DevOps azure Python IAM sur Paris
EterniTech
Publiée le
Azure DevOps
CI/CD
IAM
3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Offre d'emploi
Team Lead IA
Signe +
Publiée le
Intelligence artificielle
24 mois
45k-50k €
322-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Compétences techniques / outils à maîtriser : - Expérience confirmée en leadership d'équipe technique (delivery + priorisation). - Capacité à piloter une roadmap et arbitrer par l'impact. - Gestion transverse (multi-équipes, multi-stakeholders). - Bonne culture d'ingénierie logicielle et du SDLC. - Expérience en outillage dev / plateforme (DevEx, CI/CD, automation). - Compréhension des solutions IA appliquées au développement : - Assistants de dev, LLM, agents MCP, RAG … - Limites, risques, sécurité - Sensibilité aux sujets observabilité (metrics, logs, adoption telemetry).
Mission freelance
Chef de Projet Migration Cloud H/F
AGH CONSULTING
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
300-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Responsable projets Migration Cloud expérimenté pour piloter des programmes de Move to Cloud sur des environnements GCP, Azure et AWS. A ce titre, vos principales missions seront les suivantes : ▪ Piloter des programmes de migration Cloud de bout en bout (de la phase d’appel d’offres jusqu’à la mise en production et l’acceptation) ▪ Définir et sécuriser les stratégies de migration dans des contextes multi-cloud et réglementés ▪ Coordonner l’ensemble des parties prenantes : Project Manager, Product Design Authority, équipes d’architecture, de sécurité, partenaires et sous-traitants ▪ Garantir le respect des coûts, délais, qualité et conformité des projets ▪ Assurer le pilotage global des risques, dépendances et plans d’actions ▪ Mettre en place une gouvernance projet structurée (revues, comités, reporting
Mission freelance
Administrateur Bases de Données PostgreSQL Expert (Infra / Cloud)
Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
DevOps
12 mois
Paris, France
Contexte de la mission Une grande organisation internationale opérant dans un environnement critique et fortement digitalisé investit massivement dans la modernisation de son système d’information, avec un accent particulier sur l’infrastructure et le cloud first (Azure / AWS). Dans le cadre d’un remplacement et d’un renforcement des équipes, elle recherche un Administrateur de Bases de Données PostgreSQL Expert afin d’intervenir au sein d’une équipe DBA transverse, en lien étroit avec les équipes infrastructure, plateformes et développement applicatif. L’environnement est hybride : On-Premise, Cloud Azure et Cloud AWS, avec des exigences élevées en disponibilité, sécurité et automatisation. 2. Objectifs de la prestation Le consultant interviendra sur l’ensemble du cycle de vie des bases de données PostgreSQL : Architecture et design des solutions bases de données Build et mise en production Maintien en condition opérationnelle (MCO) Optimisation des performances Sécurité, supervision et résilience des environnements Il jouera un rôle de référent PostgreSQL et contribuera activement à la démarche DevOps DBA . 3. Périmètre fonctionnel et technique3.1 Administration & exploitation Administration N3 des environnements PostgreSQL (IaaS et PaaS) Installation, configuration, sécurisation et mises à jour PostgreSQL Sauvegarde, restauration et PRA (pg_dump, pg_basebackup, pgBackRest…) Optimisation des performances (requêtes, index, plans d’exécution) Gestion des extensions PostgreSQL (PostGIS, pg_stat_statements, etc.) Supervision et monitoring des bases 3.2 Automatisation & Cloud Automatisation des déploiements et opérations via Ansible, Git, scripting Intégration avec les outils cloud : Infrastructure as Code (Bicep) Supervision et logs (Azure Monitor, Log Analytics) Contribution à la mise en place de dashboards techniques (Grafana) 3.3 Collaboration & support Support technique de niveau avancé Assistance aux équipes de développement et d’infrastructure Rédaction de documentation technique (HLD / LLD, procédures) Participation aux projets en méthodologie agile Interface technique avec des équipes internationales 4. Environnement technique PostgreSQL (production critique) Cloud : Azure & AWS OS : Linux / Unix (Red Hat, Debian…) Infrastructure virtualisée Supervision : Grafana, Prometheus, Zabbix (ou équivalent) Automatisation & DevOps : Ansible, Git, scripting Bash / Python / PowerShell 5. Compétences requises5.1 Compétences techniques clés PostgreSQL expert (plus de 10 ans d’expérience attendue) Administration avancée PostgreSQL en environnement cloud Azure PostgreSQL Flexible Server AWS RDS PostgreSQL Sécurité des bases de données (rôles, chiffrement, audit) Automatisation et Infrastructure as Code Supervision et observabilité 5.2 Certifications Microsoft Certified: Azure Database Administrator Associate (DP-300) – obligatoire 5.3 Compétences générales Excellente capacité d’analyse et de résolution de problèmes complexes Forte rigueur technique et documentaire Capacité de synthèse et de communication Gestion des priorités et résistance au stress Anglais professionnel niveau B2 minimum (oral et écrit) 6. Modalités de la mission Démarrage souhaité : 16/03/2026 Fin de mission initiale : 12/03/2027 Durée : 1 an, renouvelable jusqu’à 3 ans maximum Temps de travail : Temps plein Astreintes : 1 semaine sur 2 ou 3, après période d’adaptation Télétravail : Tous les lundis et mardis Un vendredi sur deux 7. Localisation France : région parisienne (site principal) Belgique : déplacements réguliers à prévoir (Bruxelles) 8. Livrables attendus Time tracking mensuel Rapports d’activité (hebdomadaire / mensuel) Tableaux de bord techniques Documentation d’architecture (HLD / LLD) Procédures d’exploitation Spécifications techniques Documentation PRA et sécurité Contributions aux référentiels techniques internes
Mission freelance
Senior Platform Engineer (CaaS)
Codezys
Publiée le
Ansible
AWS CloudFormation
Azure
12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
Ingénieur DevOps Azure
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
350-390 €
Niort, Nouvelle-Aquitaine
Résumé de la mission : Le client souhaite faire appel à une société spécialisée en ingénierie DevOps et SRE sur environnement Azure, dès la phase d’idéation, en collaborant avec les concepteurs et développeurs pour assurer l’exploitabilité, la performance et la supervision des produits tout au long du cycle de vie. Accompagnement technique : Support à la squad sur la performance, la robustesse, la sécurité et la fiabilité durant le développement et la maintenance. Mise à disposition des environnements : Veiller à leur disponibilité, conformité et automatisation dans une logique DevOps pour le déploiement continu. Garanties opérationnelles : Assurer l’exploitabilité, l’observabilité, et l’optimisation des produits avec assistance technique et certifications. Préconisations : Solutions pour le capacity planning, évolutivité et scalabilité des systèmes. Gestion documentaire : Vérification et mise à jour régulière des dossiers d'exploitabilité. Amélioration continue : Participation à l’amélioration des produits et processus. Compétences techniques requises : Développement, configuration, déploiement et test d'automatismes. Maîtrise des principes fondamentaux d'intégration et développement de code adapté à DevOps. Connaissance des outils et procédures d'exploitabilité et d'observabilité pour assurer la disponibilité. Évaluation des risques techniques lors des mises en production. Gestion des déploiements d’évolutions de solutions et configurations cloud. Objectifs et livrables : Mise à jour du dossier d'architecture avec éléments d’exploitabilité, d’observabilité et de performance. Environnements contenairisés , paramétrés et configurés, avec suivi évolutif dans le temps. Dashboard d'observabilité opérationnels et supports pour leur utilisation. Rapports d’incidents rédigés et communiqués pour leur traitement. Matricielles Qualité-Performance pour évaluation continue des solutions.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5734 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois