Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud à Paris

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 377 résultats.
Freelance

Mission freelance
CONSULTANT(E) TECHNIQUE SALESFORCE

PROPULSE IT
Publiée le

24 mois
275-550 €
Paris, France

Pour un démarrage immédiat de mission longue chez l'un de nos clients à Paris, nous recherchons en urgence un(e) Développeur / intégrateur expérimenté sur Salesforce Les livrables sont : Packages/Change Sets conformes Documentation technique Documentation fonctionnelle Compétences techniques : Salesforce - Confirmé - Impératif Compétence Lightning - Confirmé - Impératif Connaissances Service Client - Confirmé - Serait un plus Connaissances Ventes - Confirmé - Serait un plus Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée : Compréhension du besoin Diagnostic des anomalies Proposition de correctifs/solutions techniques Suivi des bonnes pratiques Salesforce Connaître le "Standard" Salesforce Développement de la solution technique (code Apex souhaité) + Développement sous Lightning Réalisation des tests unitaires Préparation des packages de livraison Déploiement des développements sur les différents environnements Salesforce Support sur les développements effectués en production Concepteur-développeur - Analyste fonctionnel - Confirmé

Freelance

Mission freelance
Auditeur technique GCP - Expert GCP ( Mission courte de 8 jours)

Cherry Pick
Publiée le
Audit
CI/CD
Google Cloud Platform (GCP)

8 jours
750-800 €
Paris, France

Notre client, une entreprise du secteur de l’énergie a récemment migré son infrastructure d’un système hybride vers Google Cloud Platform (GCP) , avec une gestion via Infrastructure as Code (Terraform/Tofu) . Elle souhaite aujourd’hui réaliser un audit technique complet afin d’évaluer la sécurité, la conformité, la robustesse et l’évolutivité de son nouvel environnement cloud. Missions Auditer l’infrastructure GCP et l’implémentation IAC . Identifier les risques de sécurité , points de non-conformité et axes d’optimisation. Évaluer la fiabilité, la performance et la scalabilité de l’architecture. Analyser les environnements techniques existants : GKE (Kubernetes managé) GitHub Actions (CI/CD) Prometheus / Grafana (monitoring) Fournir des recommandations concrètes et actionnables . Restitution des résultats en collaboration avec l’équipe sur site.

Offre premium
Freelance

Mission freelance
Data Engineer (GCP/Talend)

Onetribe SAS
Publiée le
Git
Google Cloud Platform (GCP)
Java

3 ans
500-610 €
Paris, France

• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Freelance

Mission freelance
Data Engineer IA GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Python

3 mois
580 €
75000, Paris, Île-de-France

🎯 Contexte Dans le cadre d’un projet stratégique IA Générative , notre client met en place une infrastructure Data et IA pour un programme innovant de transcription d’appels en temps réel à grande échelle. L’objectif est de créer une plateforme robuste et scalable sur GCP , capable de traiter des flux massifs de données vocales clients via des modèles Speech-to-Text et d’intégrer ces données dans les applications métiers. 🛠️ Missions principales Concevoir et déployer l’ infrastructure Data et IA sur GCP pour supporter des charges massives. Développer des pipelines de données en Python pour l’ingestion, la transformation et l’exploitation temps réel. Collaborer avec les équipes IA/ML pour l’intégration des modèles de transcription vocale (Speech-to-Text) . Garantir la scalabilité , la résilience et les performances de la plateforme. Mettre en place les bonnes pratiques de monitoring, sécurité et optimisation des coûts (FinOps). Participer aux choix techniques structurants liés à l’IA générative et aux architectures temps réel.

CDI

Offre d'emploi
Ingénieur·e Cloud AWS (H/F)

Harry Hope
Publiée le

40k-60k €
Paris, Île-de-France

Dans le cadre de la stratégie de transformation vers le cloud, nous recherchons un·e Ingénieur·e AWS qui jouera un rôle clé dans l'évolution, la sécurisation et l'exploitation de l'nfrastructure cloud. Vous serez également amené·e à intervenir ponctuellement sur nos infrastructures on-premise. Vos missions principales : Concevoir, faire évoluer et administrer l'infrastructure AWS en lien avec les besoins métiers et techniques Automatiser les déploiements via des outils d'Infrastructure as Code, notamment Terraform Assurer la supervision des performances, de la sécurité et de la résilience de l'environnement cloud Apporter votre expertise en support aux environnements on-premise (VMware, serveurs physiques, réseau...) Rédiger, mettre à jour et structurer la documentation technique Collaborer avec les équipes internes (infrastructure, projets, sécurité...) Piloter des projets techniques, notamment liés à la migration ou à l'optimisation du cloud

Freelance

Mission freelance
Administrateur / Configurateur Salesforce

EBMC
Publiée le
Salesforce Sales Cloud

6 mois
Paris, France

Nous recherchons un Administrateur / Configurateur Salesforce capable de prendre en charge la configuration fonctionnelle et l’administration quotidienne de la plateforme. Sa mission principale consistera à assurer la mise en œuvre et l’évolution de Salesforce sur les périmètres Service Cloud, Platform Core et Experience Cloud , en collaboration étroite avec les équipes métiers et les équipes d’intégration. Le consultant sera chargé de gérer le modèle de données standard et personnalisé (objets, champs, types d’enregistrement), de configurer les sites via Experience Cloud et d’administrer les habilitations (profils, rôles, files d’attente). Il mettra en place les automatisations nécessaires (flows, règles de validation, processus d’approbation) et veillera à produire des rapports et tableaux de bord pertinents afin de répondre aux besoins métiers. En complément, il contribuera à l’administration de la base de connaissances Salesforce Knowledge , à la configuration des communautés Experience Cloud, tout en documentant ses réalisations et en participant activement à la formation des utilisateurs.

CDI

Offre d'emploi
Développeur Full-Stack & Cloud AWS (H/F)

CITECH
Publiée le
AWS Cloud
Java
Vue.js

62k-77k €
Paris, France

🚀 CITECH recrute ! ✨ Vous souhaitez relever un défi technique stimulant et contribuer à un projet stratégique de migration Cloud ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Développeur Full-Stack & Cloud AWS (H/F) 👨‍💻👩‍💻 💰 Votre mission : Intégré(e) à une Feature Team Agile , vous participerez à l’évolution d’une plateforme de paiement dans un environnement exigeant en sécurité, conformité PCI DSS et qualité. 🙌🔽 Vos missions principales : 🔽🙌 🔸 Développer back-end Java et front-end VueJS selon les bonnes pratiques (Clean Code). 🔸 Participer à l’amélioration continue des pipelines CI/CD (GitLab, Ansible, Terraform). 🔸 Contribuer au projet de migration Cloud AWS (ECS/EKS, ALB, SQS, Lambda, Aurora…). 🔸 Garantir qualité des livrables et observabilité (monitoring, logging). 🔸 Suivre les mises en production et résoudre les incidents. 🔸 Collaborer avec Tech Leads, Product Owners, Architectes et équipes Ops, et proposer des améliorations techniques.

Freelance

Mission freelance
Architecte Cloud AWS

Lawrence Harvey (LHI group limited)
Publiée le
Architecture
AWS Cloud

6 mois
Paris, France

Mission / Freelance / France / Architecte Cloud AWS / Expert / DataLake / DevOps / Sécurité / Terraform / Kubernetes Contexte : Dans le cadre de projets stratégiques de migration et de transformation cloud, nous recherchons un Architecte Cloud AWS pour renforcer une équipe en charge de la conception et de l’industrialisation de plateformes critiques. Le consultant interviendra sur des environnements complexes et multi-technologiques, avec un fort accent sur les bonnes pratiques AWS, l’automatisation IaC et la sécurité cloud. Localisation : Paris (2 à 3j/semaine sur site) Durée de mission : longue (6 mois renouvelables) Date de démarrage : ASAP Missions principales : Définir et concevoir des architectures cloud AWS (Landing Zones, DataLake, solutions hybrides). Préparer et piloter les migrations de solutions vers le cloud. Déployer les bonnes pratiques AWS (architecture, sécurité, coûts, gouvernance). Automatiser via Infrastructure as Code (Terraform, CloudFormation). Concevoir et industrialiser des chaînes CI/CD (Jenkins, GitLab CI, CodePipeline). Assurer l’intégration avec les environnements Kubernetes / Docker / Ansible. Implémenter des solutions de supervision et de monitoring (ELK, Prometheus, Grafana). Rédiger et maintenir la documentation technique et d’architecture. Collaborer étroitement avec les équipes Data, DevOps et Sécurité. Profil recherché : Expérience : 9+ ans dans l’IT dont plusieurs années en architecture cloud AWS. Certifications appréciées : AWS Certified Solutions Architect – Professional (et autres spécialités : Sécurité, Data Analytics, Advanced Networking…). Compétences techniques : AWS (S3, Lambda, Redshift, DynamoDB, API Gateway, Step Functions, ECS/EKS…). Infrastructure as Code : Terraform, CloudFormation. CI/CD : Jenkins, GitLab CI, CodePipeline. Conteneurs et orchestration : Docker, Kubernetes. Scripting : Python, Bash, JSON, YAML. Sécurité : IAM, PKI, chiffrement, sécurité applicative et réseau. Atouts : expérience DataLake, environnements distribués, forte culture DevOps et agilité. Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).

CDI

Offre d'emploi
Intégrateur applicatif AWS - H/F

SCALIAN DS
Publiée le
Infrastructure

40k-50k €
Paris, France

Intégrateur applicatif AWS - H/F Boulogne-Billancourt (92) Télétravail : 2 jours par semaine Contrat : à définir Rémunération : 40/50k selon profil Démarrage : dès que possible Durée : longue visibilité À propos du poste : Secteur d'activité : domaine des jeux d'argent Contexte : nous recherchons un Ingénieur Intégration & Exploitation disposant de compétences en architecture Cloud AWS, pour accompagner la mise en production, la gestion des environnements, et la fiabilisation des applications (mobile/web) Vos missions principales : liste non exhaustive plus de détails par téléphone Intégrer et déployer les applications sous responsabilité de la direction. Participer aux phases de migration, de bascule et d’évolution des projets. Maintenir la cartographie des composants techniques et applicatifs. Gérer, maintenir et sécuriser les différents environnements (intégration, pré-prod, production). Réaliser le paramétrage technique des applications et infrastructures Cloud. Être un support aux équipes QA, DEV, PO et recette transverse pour garantir la qualité applicative. Garantir l’exploitabilité, la performance et la résilience des composants. Contribuer à l’exploitation quotidienne et au traitement des incidents (analyse, diagnostic, correction). Participer aux campagnes de qualification technique et fonctionnelle. Coordonner les actions d’administration, d’intégration et de communication inter-équipe. Mettre en œuvre une veille active sur les évolutions technologiques (notamment Apple/Android). Environnement technique (Stack) : AWS / GitLab / Jenkins / Docker / Drupal / Shell / Python / Web / Mobile

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Tech Lead IA-Python/GCP

KEONI CONSULTING
Publiée le
Framework
Microservices
Python

18 mois
100-500 €
Paris, France

CONTEXTE: Expérience : 7 ans et plus Métiers Fonctions : Etudes & Développement-developpement Spécialités technologiques : Devops IA generative Monitoring tests unitaires Reporting Compétences Technologies et Outils Google Cloud Platform FastAPI GIT genai Java RESTFul GCP MongoDB Python Spring Boot genai PostgreSQL Méthodes / Normes SAFe TDD Agile Langues Anglais MISSIONS Dans le cadre d'un nouveau programme chez notre client, La Direction Informatique recherche une prestation de lead développement pour contribuer au développement du programme en mettant à disposition de nouveaux types d’agents IA venant enrichir les capacités de la plateforme self-service du client. Il s’agira de développer des solutions innovantes telles que les agents de type Retrieval-Augmented Generation (RAG). En capitalisant sur GCP et les dernières évolutions de GenAI, ces agents IA viennent enrichir les capacités de notre plateforme. Cette dernière permet aux utilisateurs métiers de créer, d’utiliser et de personnaliser des assistants et des workflows intégrant l'IA générative, afin d'améliorer nos processus et systèmes d'information (SI) existants. Le développement est réalisé en Python et Java, les agents IA dans une architecture micro-services et sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La mission concernera principalement : - La mise en place, la maintenance et l’évolution des agents IA : ● Garantir la couverture fonctionnelle et spécialisation de l’agent ● Garantir les capacités de collaboration de l’agent avec d’autres agents ● Garantir l’utilisation de standards lorsque possible ● Gérer les aspects sécurité et ACLs ● Intégrer monitoring et reporting sur l’activité agents IA ● Optimiser performance et coûts de fonctionnement ● Intégrer les mécanismes d’évaluation de la qualité de l’agent ● Garantir le passage à l’échelle de l’utilisation des agents - Garantir la stabilité et scalabilité de la plateforme par la mise en place/optimisation des technologies permettant la scalabilité et monitoring en collaboration avec les DevOps Garantir la remise en marche du SI dans les délais exigés par les projets - Communiquer sur l’état des services et le plan de remise en marche si le cas se présente - Challenger et contribuer à la vision du produit, piloter la conception, le développement, les opérations et garantir le SLA - Collaborer avec les Solution Architect pour l’étude des évolutions demandées par le produit - Identifier et prioriser les services offerts pour répondre aux besoins du client et de la stratégie du groupe - Sécuriser l'alignement organisationnel ainsi que la gestion des dépendances techniques avec les différentes parties prenantes - Assurer une veille technologique pour garantir la pérennité des solutions utilisées - Garantir la cohérence fonctionnelle et la qualité des composants - Garantir la pérennité et la mise à jour des outils et technologies employés - Garantir l’application des bonnes pratiques par l’ensemble des développeurs et le bon fonctionnement en mode agile du projet Livrables - Reporting de l’état des agents IA et technologies utilisés auprès des référents techniques - Capitalisation sur les technologies et sur toute problématique rencontrée par la formalisation dans les standards de l’entreprise (REX, eDEX, knowledge base, ...) - Code des développements demandés, conçus et mis en œuvre en production dans les critères d’acceptation Renault - Code des tests unitaires et d’intégrations automatisés - Documentation du code expliquant les programmes et algorithmes

Offre premium
Freelance
CDI

Offre d'emploi
Développeur sénior c# .NET backend Azure (7-8 ans d'exp minimum)

Digistrat consulting
Publiée le
.NET
Azure

3 ans
40k-60k €
400-550 €
Paris, France

🏭 Secteurs stratégiques : Asset Management 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur sénior en c# qui maitrise Azure. Dans ce cadre, les taches qui seront proposées sont les suivantes : • Participation au cadrage des solutions à implémenter • Codage des US • Mise en place des pipelines CI/CD en collaboration avec l’infrastructure • Suivi de la recette, de l’UAT et de la production. • Rédactions de documentation Durée de la mission La mission est prévue pour 3 mois, renouvelable.

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

Freelance
CDI

Offre d'emploi
Techlead - sénior - Java AWS

OLYMPP
Publiée le
Agile Scrum
Angular
AWS Cloud

3 ans
40k-45k €
400-650 €
Paris, France

​​Il divise les rôles de chaque membre de son équipe technique en fonction de leur savoir-faire et les accompagne au quotidien Il encadre, coordonne, forme et fait monter en compétence ses subordonnés en partageant ses connaissances Il motive son équipe et leur impose un rythme via des objectifs et deadlines Il analyse les contraintes et les besoins Il supervise et assure le suivi technique des projets Il met en place et réalise les tests techniques, parfois en collaboration avec l’équipe QA Il s’assure de la qualité du code et résout les problèmes rencontrés par son équipe Il développe les parties les plus complexes du code Il effectue une veille technologique permanente Il rédige la documentation technique

Freelance
CDI
CDD

Offre d'emploi
Java / Scala / aws

Gentis Recruitment SAS
Publiée le
Architecture
AWS Cloud
Java

12 mois
40k-70k €
400-600 €
Paris, France

Description Le consultant fera partie de l'équipe de développement de xxxx, une équipe aux pratiques modernes et efficaces. xxxx est une solution informatique et matérielle de "demand side management" pour clients industriels, contribuant à la transition énergétique. Le consultant interviendra sur la partie logicielle en: analyse de besoins, design, développement, support, maintenance corrective et évolutive. En design et développement, un haut niveau de qualité est attendu. Le consultant participera activement au design de l'architecture et développement du système; le consultant, souvent en collaboration, souvent en totale autonomie, comprendra les besoins et fera des propositions d'architecture évolutive (notamment modulaire) et documentée. Sont aussi importants: l'orientation qualité avec la documentation, les tests automatisés, le build et déploiement automatisés, la conception et le développement d'API bien pensées. La Mission à réaliser se déclinera notamment à travers: - La montée en compétence, tant fonctionnelle que technique, sur les applications existantes - Le design de propositions d'architecture, documentée dans des schémas, la définition des APIs, modules, librairies et écrans - La mise en place de builds et des outils de tests et de maintenance associés - Le lotissement des développements - L'implémentation des différents besoins - Les optimisations et évolutions diverses - La rédaction de tests en collaboration avec les Functional Analysts - La documentation et les manuels d'utilisations - L'assistance et le support aux utilisateurs - Le support niveau2, résolution d'incidents et résolution de problèmes (root causes d'incidents récurrents) - Le suivi post-release des livrables Maîtrise du langage Scala Très bonne connaissance des librairies : cats, http4s, doobie, fs2 À l’aise avec les tests unitaires, d’intégration et Pact Connaissance de Redis, MQTT, InfluxDB, Postgres Expérience en event-driven architecture Notre stack technique : Cloud & Infrastructure : AWS, Terraform Backend : Scala (cats, http4s, fs2), Rust (IOT) Data & Messaging : InfluxDB, PostgreSQL, Redis, MQTT Front-end : ReactJS CI/CD : déploiement continu

Freelance

Mission freelance
MLOps / Azure AI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure
OpenAPI
Python

12 mois
Paris, France

Contexte Nous recherchons un profil pour contribuer : au développement d’applications de gouvernance des modèles de Machine Learning, à l’ évolution d’une plateforme interne de mise à disposition de LLMs (Large Language Models). Ces initiatives visent à offrir aux équipes de développement des outils fiables, sécurisés et performants pour la gestion, l’utilisation et l’optimisation des modèles d’IA et d’IA générative. Périmètre de la mission1. Applications de gouvernance des modèles ML Objectif : inventorier les modèles déployés sur différentes plateformes (Azure ML, Databricks, AWS Sagemaker…) et restituer les informations clés via API et dashboard. Missions : Développement et maintenance du code infrastructure (Terraform sur Azure et/ou AWS). Automatisation des déploiements via GitHub Workflows (CI/CD, scans de code). Développement backend pour collecter et stocker les informations et métriques liées aux modèles. Mise à disposition d’ APIs consommables par un front-end (React). 2. Plateforme LLM Hub Objectif : centraliser et optimiser l’accès aux modèles LLM (OpenAI, Mistral, Claude, etc.) via différents fournisseurs Cloud (Azure, AWS). Missions : Développement et maintenance de l’infrastructure Terraform et pipelines GitHub. Développement backend pour exposer et gérer les APIs LLM via un API Manager centralisé. Mise en place de solutions de suivi et de reporting des consommations applicatives (FinOps). Conception et développement de plugins pour faciliter l’usage des LLMs (RAG, Text-to-SQL, WebSearch…). Participation à l’évolution de l’application Chatbot interne (front en React). Design et développement de nouvelles fonctionnalités (plateforme de création d’agents, prompts library, guardrails, outils low-code, packaging prêt-à-l’emploi, etc.). Veille technologique sur les évolutions du domaine GenAI. Responsabilités Identifier les solutions techniques alignées avec la stratégie GenAI et les besoins métiers. Réaliser des tests / POCs pour évaluer et valider de nouvelles solutions. Participer aux développements et évolutions des produits de la plateforme. Assurer la qualité, la sécurité et la maintenabilité du code livré.

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

377 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous