Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 032 résultats.
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance

Mission freelance
Ingénieur DEVOPS - Openshift - MLOps H/F

Insitoo Freelances
Publiée le
Artifactory
Azure Kubernetes Service (AKS)
Openshift

2 ans
295-556 €
Marignane, Provence-Alpes-Côte d'Azur
Habilitation obligatoire Les missions attendues par l' Ingénieur DEVOPS - Openshift - MLOps H/F : La mission consiste à établir, exploiter et améliorer une plateforme AI/MLOps basée sur Kubernetes / OpenShift pour supporter le cycle de vie complet des modèles ML, depuis l'expérimentation jusqu’au déploiement opérationnel. Objectifs principaux (non exhaustif) : Garantir la fiabilité , la scalabilité et la sécurité de la plateforme AI. Fluidifier le passage ML → production , en automatisant au maximum les étapes. Compétences techniques essentielles : Expertise containers Docker , orchestration Kubernetes , avec forte pratique OpenShift . Compétence DevOps : CI/CD , IaC, GitOps. Maîtrise de solutions MLOps : Kubeflow , Elyra , environnements LLM. Connaissances avancées sur les pipelines : Tekton , modèles de déploiement, Artifactory. Compétences en scripting : Python , Go . Connaissance des frameworks de Machine Learning Soft skills & exigences : Autonomie sur un environnement complexe. Capacité à intervenir sur une plateforme AI en production. Aptitude au troubleshooting multi-couches (pods, ressources, pipelines). Rigueur, sécurité et conformité dans les environnements sensibles Maintenance & Opérations Exploitation quotidienne d’une plateforme AI basée sur kube/OCP . Application des mises à jour , correctifs et évolutions des composants plateforme. Déploiement & Supervision Déploiement des modèles ML dans l’environnement OCP. Automatisation des tâches de scaling, monitoring et gestion du cycle de vie. CI/CD & Pipelines Conception, construction et maintenance de pipelines CI/CD avec Tekton ou Kubeflow . Gestion des workflows d’entraînement, réentraînement et inference. Support & Troubleshooting Diagnostic des crashes pods, problèmes de ressources, échecs pipelines. Résolution des incidents liés à la production de modèles. Customisation & Sécurité Rebuild et customisation de composants plateforme (workbenches, runtimes). Garantie de la conformité & sécurité sur l’ensemble des environnements. Teletravail : 2j/5
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Freelance

Mission freelance
Ingénieur Data

JobiStart
Publiée le
AI
AWS Cloud
Cloud

1 an
400-550 €
Île-de-France, France
Concevoir, développer et opérer des pipelines de données robustes et évolutifs au sein d’environnements Cloud Mettre en place des mécanismes d’ingestion, de transformation et d’exposition de données provenant de sources multiples, structurées ou non Exploiter les services Cloud pour l’orchestration des flux, le stockage et le calcul distribué Développer des composants Data orientés usages analytiques et Intelligence Artificielle Participer à la mise en production et à l’industrialisation de modèles de Machine Learning et d’IA générative Optimiser la performance, la fiabilité et la maintenabilité des traitements et des pipelines Définir et appliquer des règles de qualité, de cohérence et de normalisation des données Contribuer à la structuration des référentiels data et aux démarches de gouvernance Produire et maintenir la documentation technique et fonctionnelle des flux et modèles de données Accompagner les équipes métiers et analytiques dans la formalisation des besoins Data Animer des ateliers de cadrage afin de traduire les usages fonctionnels en solutions techniques Jouer un rôle d’interface entre les équipes IT, Data Science et utilisateurs finaux Automatiser les déploiements et les traitements via des pipelines CI/CD Contribuer à la conception et à la sécurisation des architectures Data Cloud Intégrer les traitements selon les standards ETL/ELT et les bonnes pratiques DevOps
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
Freelance

Mission freelance
Consultant Ivalua

DEVIK CONSULTING
Publiée le
Azure Data Factory
Finance
Ivalua

2 ans
650-800 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un consultant Ivalua pour rejoindre le département Global Support Functions Application. Le consultant aura pour rôle de superviser le support de certaines application Finnance et apporter une expertise sur l’application Ivalua Mission principale : Le/La candidat(e) retenu(e) sera responsable de la bonne fourniture des services, de la maintenance technique et fonctionnelle ainsi que des évolutions futures des applications Finance et produits qui lui seront attribués, notamment :. Ivalua , en particulier les fonctionnalités SRM, S2C et P2P . Le démarrage du RUN pour les premiers pays et fonctionnalités est prévu tout début 2026 . Cette expertise est obligatoire afin d’assurer le RUN en tant qu’administrateur(trice) de la plateforme. Le/La candidat(e) devra posséder : une certification niveau 2 (L2) pour l’administration fonctionnelle générale, une certification niveau 3 (L3) spécifique à la configuration des modules et des intégrations. De plus, la certification Project Release Manager (PRM) serait fortement appréciée. Oracle OeBS R12 : le produit Ivalua ainsi que d’autres produits mentionnés ci-dessous seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 . La connaissance des applications suivantes pourrait également être un plus : Generix , en particulier le module Generix Invoices Service . Le démarrage du RUN pour le premier pays, est prévu début 2026 . SideTrade (Augmented Cash et plusieurs autres modules optionnels). Le RUN de plus de 10 pays devra être maîtrisé et mis sous contrôle. Azure Data Factory (ADF) , utilisé comme middleware pour connecter certaines applications à l’ERP Groupe. Lieu : Paris
Freelance
CDI

Offre d'emploi
Développeur Backend Java H/F

OBJECTWARE
Publiée le
AWS Cloud
Java
Kubernetes

1 an
Nantes, Pays de la Loire
Dans un contexte agile, vos missions sont : - Conception, développement et livraison des solutions backend robustes, performantes et sécurisées - Maitrise de l'architecture AWS et des services managés ainsi que de la conteneurisation Kubernetes - Analyse et traduction des exigences fonctionnelles complexes en solutions techniques pertinentes, en les challengeant lorsque nécessaire. - Participer au développement, à la maintenance et à l'évolution des fonctionnalités - garantir de la qualité, la fiabilité et l'exploitabilité.
Freelance

Mission freelance
Head Of Infra / SRE

SURICATE IT
Publiée le
AWS Cloud
Direction de projet
Dynatrace

6 mois
La Défense, Île-de-France
Head of Infrastructure / SRE (Freelance) – Scope France 📍 Localisation : La Défense (3 jours sur site – flexible mais pas de full remote) 📅 Démarrage : ASAP ⏳ Durée : 6 mois minimum (+ prolongation possible) 💼 Statut : Freelance 💰 TJM : Selon profil 🗣 Langues : Anglais obligatoire (espagnol apprécié) 🚀 Pré-embauche possible : pas d'obligation mais fort plus Contexte Nous évoluons dans un environnement SaaS B2B critique en tant que Trust Services Provider , avec des exigences élevées en matière de disponibilité, sécurité, résilience et conformité. Notre environnement est hybride : Data Centers on-premise (propriétaires) AWS (environnement cloud avancé) Vous interviendrez dans un contexte stratégique avec une vision scalable, extensible aux autres entités du groupe. Votre mission En tant que Head of Infrastructure / SRE France , vous prenez la responsabilité de l’infrastructure et de la fiabilité des plateformes sur le périmètre France. Le rôle est à forte dimension stratégique et organisationnelle , au-delà de l’opérationnel. 🎯 Responsabilités principales Structurer et piloter la fiabilité globale des systèmes (SRE mindset) Définir et mettre en place une gouvernance cloud robuste Développer une stratégie d’ observabilité avancée (Dynatrace) Industrialiser les pratiques SRE à l’échelle Construire une organisation scalable et duplicable au niveau groupe Manager une équipe infrastructure de 6 à 8 personnes Interagir régulièrement avec les équipes et la direction au niveau groupe Challenger techniquement les équipes (fort leadership technique attendu) ⚠️ Le rôle n’est pas orienté “hands-on quotidien”, mais nécessite une compréhension technique très solide pour piloter, arbitrer et définir la vision. Environnement technique Cloud : AWS (niveau avancé requis) Containerisation : Kubernetes Infrastructure as Code (IaC) Observabilité : Dynatrace Environnement hybride (On-prem + Cloud) Contexte haute disponibilité / haute criticité
Freelance

Mission freelance
Ingénieur système Microsoft (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Active Directory
Azure
Powershell

12 mois
430-450 €
Île-de-France, France
Contexte Dans un contexte de forte croissance des besoins liés à la gestion des identités Cloud, notre client renforce son équipe Microsoft afin d’absorber un volume important de demandes d’intégration SSO (environ 20 par mois). Au sein du CSI et rattaché au Responsable Back Office, l’Ingénieur Système Microsoft interviendra en tant qu’expert sur les services d’identité, d’authentification et de fédération autour de Microsoft ENTRA ID et de son écosystème. La mission requiert une expertise confirmée sur les environnements Microsoft, notamment pour assurer un support de niveau 3 et structurer les processus d’industrialisation. Des compétences en développement sont attendues, notamment en PowerShell et Power Platform, afin de répondre aux besoins d’automatisation. Missions / Livrables Garantir la cohérence des différentes briques du système d’information, leur interopérabilité et leur évolution. Assurer le maintien en condition opérationnelle (MCO) de l’infrastructure bureautique. Intégrer les applications bureautiques et métiers au sein de l’environnement Microsoft. Réceptionner, contrôler et valider les mises en production ainsi que les opérations de migration. Veiller à la qualité des livrables techniques (procédures, documentations, standards). Participer aux cérémonies et travaux d’équipe. Contribuer à la veille technologique et formuler des recommandations d’évolution.
Freelance

Mission freelance
Developpeur .Net

Tenth Revolution Group
Publiée le
.NET
Azure
Power Platform

6 mois
350-500 €
Belgique
Je recherche un développeur expérimenté pour intervenir sur un projet stratégique visant à remplacer des flux Power Automate existants, connectés entre Dataverse et Dynamics 365 Finance & Operations par des Azure Functions robustes, scalables et maintenables. 🎯 Votre mission Dans le cadre de la modernisation des intégrations existantes, vous serez en charge de : Analyser les flux Power Automate actuels afin d’en comprendre la logique, les dépendances et les interactions avec Dataverse et D365 F&O. Reconcevoir ces flux sous forme d’Azure Functions performantes et sécurisées. Assurer les opérations de lecture/écriture dans Dataverse via les API adaptées. Garantir une intégration fluide entre les nouvelles fonctions Azure et l’écosystème D365 F&O. Participer à la documentation, aux tests et au transfert de connaissances auprès des équipes internes. 🛠️ Compétences techniques recherchées Indispensables : Excellente maîtrise de .NET (version récente – idéalement .NET 10) Expérience confirmée en Azure Functions Capacité à analyser et décortiquer des flux Power Automate Connaissance solide des mécanismes de lecture/écriture dans Dataverse Gros plus : Expérience sur la Power Platform Connaissance de Dynamics 365 Finance & Operations (F&O)
Freelance

Mission freelance
Tech Lead Java – management d’une équipe de développeurs et pilotage technique

INSYCO
Publiée le
Ansible
AWS Cloud
Docker

36 mois
500-660 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Tech Lead Java – management d’une équipe de développeurs et pilotage technique . Dans le cadre d’une prestation de transition, vous interviendrez au sein d’un pôle de développement d’une vingtaine de personnes organisé en équipes agiles (Scrum) dans un environnement SAFe. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco.fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence MDE/TLM/5075 dans l’objet de votre message Dans le cadre d’une organisation de développement structurée autour d’équipes agiles, la prestation consiste à intervenir en tant que Tech Lead manager de transition afin d’encadrer et structurer un pôle d’environ vingt développeurs. Les équipes sont organisées en Scrum et fonctionnent dans un environnement agile à l’échelle de type SAFe , avec des sprints de trois semaines et des cycles de planification trimestriels. L’activité applicative concerne plusieurs domaines fonctionnels autour d’un système d’information comprenant notamment : un CRM dédié au suivi de la relation avec les clients et à la gestion contractuelle un ERP couvrant des processus de facturation et de comptabilité des applications mobiles utilisées pour des activités opérationnelles de terrain différents outils applicatifs participant aux processus de gestion et d’exploitation du système d’information L’équipe de développement est composée à la fois de collaborateurs internes et de prestataires externes, avec des niveaux de séniorité variés. La prestation couvre notamment les activités suivantes : animer et faire progresser une équipe de développeurs superviser la qualité du code produit par les équipes participer à l’évaluation des développeurs et contribuer aux recrutements techniques valider les conceptions techniques proposées par les équipes piloter les coûts liés aux évolutions techniques encourager et diffuser les bonnes pratiques de développement contribuer à la poursuite et à l’amélioration des pipelines CI/CD participer ponctuellement à certains développements sur les applications du domaine favoriser l’innovation et les démarches d’amélioration continue Le prestataire devra également jouer un rôle structurant dans la diffusion des pratiques techniques, la coordination entre équipes et l’amélioration continue de la qualité logicielle.
CDI

Offre d'emploi
Ingénieur Cloud Azure – CDI

SYNAPSYS IT
Publiée le
Azure
Cloud

42k-48k €
Courbevoie, Île-de-France
Dans le cadre du renforcement de l’équipe plateforme Azure Cloud , nous recherchons un Ingénieur Cloud Azure disposant d’une solide maîtrise de l’écosystème Microsoft Azure. Vous interviendrez sur des projets stratégiques d ’optimisation, sécurisation et exploitation d’infrastructures Cloud , au sein d’une équipe pluridisciplinaire. Vos missions En tant qu’Ingénieur Cloud Azure, vous serez amené à : Déployer et administrer des environnements Azure. Assurer la sécurité et la performance des applications via Azure WAF , Application Gateway et autres services de protection. Gérer les services de calcul : machines virtuelles , endpoints, scaling, passerelles applicatives. Administrer et optimiser la gestion des adresses IP fixes , ainsi que les opérations de migration/déplacement de VMs dans Azure. Garantir la disponibilité et la résilience des infrastructures (zones vs régions, redondance, continuité). Participer à la rédaction de la documentation technique et au partage de connaissances au sein de l’équipe.
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Freelance

Mission freelance
Data engineer H/F

Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks

2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Freelance

Mission freelance
Ingénieur OPS / IOPS

BEEZEN
Publiée le
Ansible
Apache Kafka
Clarity

12 mois
400-520 €
Montreuil, Île-de-France
Je recherche un Ingénieur de Production OPS pour une prestation d’accompagnement de type ingénierie de production (IOPS) et pilotage projet sur un périmètre exigent techniquement et fonctionnellement. La capacité à gérer un sujet de bout en bout (pilotage), un bon niveau d'autonomie et de reporting sont nécessaires. Dans l'environnement : - mêlant Projet et RUN - mêlant nouvelles divers technos (voir Liste des tâches attendues dans le cadre de la mission) Les missions sont : Ingénierie de production : • Réalisation les opérations techniques liés la mise en œuvre des projets/évolutions et/ou incidents en appliquant les règles et standards en vigueur • Participation à un projet de bout en bout, y compris la phase d'étude la conception de l'architecture technique • Identification des points de blocage OPS (flux, sécurité, réseau…), alerte et proposition des plans d’action. • Contribution à la mise à disposition des ressources de Production et d’infrastructure (Production et hors production : environnements, chaines d’outillage, quality gates…) • Contribution à l’amélioration de l’Exploitation (industrialisation, automatisation, normalisation …) dans le but de limiter le nombre d’incidents • Mise en place/suivi/préconisation des exigences d’infrastructures et d’exploitation dans le Product Backlog, ainsi que toute User story technique nécessaire (industrialisation, gestion de l’obsolescence, audit de code…) ; • Support N2 en cas de blocage ou d’incident majeur (voire gestion de crise) sur le périmètre en charge, Technologies / outils : Linux (RHEL 8/9), Cloud Public IBM, Kubernetes/Docker/HELM/GItlab /Jenkins, Ansible, Oracle (BDD), MongoDB, WAS, Autosys, , MQ, CFT, ServiceNow, Clarity, Kafka
CDI
Freelance

Offre d'emploi
INGENIEUR STOCKAGE - AMAZON S3

HEEVOX
Publiée le
Amazon S3
AWS Cloud
JSON

2 ans
45k-55k €
400-500 €
Île-de-France, France
INGENIEUR STOCKAGE - AMAZON S3 Démarrage : ASAP Durée : 2 ans Localisation : Ile de France (Proche Paris) Télétravail : 50% Objectif global : Administrer plateforme de stockage objet Profil Recherché : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement.
5032 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous