Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud à Paris

Votre recherche renvoie 82 résultats.
Freelance

Mission freelance
Ingénieur Infrastructures – Cloud, Réseaux & Sécurité (SI / Broadcast)

INSYCO
Publiée le
AWS Cloud
Cisco ACI
F5

12 mois
Paris, France

Bonjour, Nous recherchons des profils spécialisés en ingénierie des infrastructures SI, Cloud et web , pouvant intervenir sur l’un ou plusieurs des volets décrits ci-dessous. Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Statut actuel Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence INFRA2 dans l'objet de votre message.

Freelance

Mission freelance
CLOUD analyst - Azure AWS Finops

PROPULSE IT
Publiée le
Azure
Cloud
FinOps

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...

Offre premium
CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Tech Lead Data Databricks AWS

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

6 mois
550-600 €
Paris, France

Dans le cadre de l’évolution d’une plateforme data existante de niveau entreprise, nous recherchons un Tech Lead Data Engineer pour renforcer une équipe agile internationale. L’environnement est déjà en place – il s’agira de l’optimiser, l’industrialiser et l’étendre à de nouveaux cas d’usage analytiques 🎯 Vos missions principales : ✅ Faire évoluer la plateforme Data existante (Datawarehouse & pipelines) ✅ Implémenter & gérer le Unity Catalog sur Databricks ✅ Développer et maintenir des workflows complexes sous Airflow ✅ Structurer les bonnes pratiques d’ingénierie sur AWS ✅ Garantir la robustesse, la scalabilité et la gouvernance des données ✅ Collaborer avec des profils anglophones sur des projets critiques

Freelance

Mission freelance
Data Engineer AWS Sénior

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Freelance

Mission freelance
Mission Freelance – CloudOps Engineer – Paris (hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)

3 mois
400-600 €
Paris, France

🎯 Mission Freelance – CloudOps Engineer – Paris (hybride) Pour le compte d’un grand groupe international, nous recherchons un·e CloudOps Engineer pour rejoindre une équipe cloud d’environ 170 personnes. Objectif : simplifier les outils techniques du groupe et automatiser les infrastructures. 🎯 Objectifs de la mission : Administrer et optimiser les environnements GCP (prioritaire) et AWS Fournir des services cloud “clé en main” pour les équipes IT Automatiser les déploiements via l’ Infrastructure as Code Améliorer la sécurité, la fiabilité et les bonnes pratiques Travailler avec les équipes sécurité, produit et run Accompagner la transformation cloud à grande échelle 🔧 Stack technique : Cloud : GCP, AWS – certification pro demandée (ex : GCP Architect Pro, AWS Solutions Architect Pro) Outils : Terraform, Python, Bash, Curl, APIs Méthodes : DevOps, scripting, automatisation, IaC Environnements : Linux, CI/CD, sécurité cloud, monitoring Langue : anglais B2 minimum 🧠 Compétences attendues : Python : confirmé / expert CloudOps / GCP / AWS : confirmé à expert Terraform (IBM) : confirmé IAM Cloud / Cloud Native : confirmé ✅ Profil recherché : 3 à 5 ans d’expérience cloud Bonne maîtrise des architectures distribuées À l’aise sur le run (1 semaine par mois) et le support utilisateurs Autonome, communicant, pédagogue 📍 Lieu : Paris (hybride) 📅 Démarrage : ASAP 💰 TJM : selon profil 📨 Intéressé·e ? Merci de postuler votre CV à jour

Freelance

Mission freelance
AWS Data Engineer

Phaidon London- Glocomms
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
400-550 €
Paris, France

Développer et maintenir des pipelines de données évolutifs à l’aide de Python, Spark et des services AWS. Effectuer des calculs sur des données chronologiques et événementielles issues de parcs solaires et de systèmes de stockage d'énergie. Concevoir et mettre en œuvre une infrastructure sous forme de code (IaC) avec Terraform pour gérer les ressources cloud. Collaborer avec les responsables des parcs solaires et de stockage afin de comprendre les besoins en données et de fournir des informations pertinentes. Développer des API ou des interfaces de données pour exposer les données traitées à des fins d'analyse et de visualisation. Garantir la qualité, la fiabilité et la performance des données à toutes les étapes du pipeline. Documenter les processus et contribuer aux meilleures pratiques en ingénierie des données et en analyse des énergies renouvelables.

Freelance

Mission freelance
Product Owner DATA

Cherry Pick
Publiée le
Agile Scrum
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Dans le cadre d’une transformation majeure côté data , le département Data de notre client recherche un Product Owner Data pour piloter la roadmap produit du CRM Lakehouse . Le poste implique la coordination entre les équipes techniques et métiers afin d’assurer la convergence des données CRM vers un modèle harmonisé . Le contexte technique est exigeant et repose sur une stack moderne full AWS (multi-tenant) , associée à des pratiques d’infrastructure as code, d’industrialisation et de gouvernance data avancée. Environnement technique : AWS (multi-tenant), Terraform, GitLab CI/CD, Serverless, FastAPI, batch Python, Snowflake, Spark, Lambda, Kinesis, MSR Gouvernance : Data Steward, DataOps, DataFlops Collaboration internationale et en anglais courant impératif Projet long terme, démarrage immédiat ou début septembre Missions Définir la vision produit et les objectifs alignés sur la stratégie data globale du groupe. Prioriser et gérer le backlog , assurer le suivi et la bonne exécution des sprints. Contrôler la qualité et la cohérence des données CRM intégrées dans le Lakehouse. Animer des ateliers avec les filiales et recueillir les besoins métiers. Coordonner la communication entre équipes techniques, data et métiers pour fluidifier la mise en œuvre des évolutions produit.

Freelance

Mission freelance
CloudOps engineer expérimenté AWS/GCP (H/F) - PARIS

Espace Freelance
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Python

12 mois
400-550 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un CloudOps engineer expérimenté AWS/GCP (H/F) - PARIS Votre mission : Administrer et optimiser les environnements AWS et GCP Concevoir, automatiser et industrialiser les déploiements via Terraform , Python , scripting et APIs Mettre en place reporting, inventaires et contrôles qualité Former et accompagner les équipes techniques sur les bonnes pratiques Cloud Collaborer avec la sécurité pour renforcer les process Participer aux activités Run (1 semaine / mois)

Freelance

Mission freelance
Data Architecte AWS

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
AWS Cloud

24 mois
600-650 €
Paris, France

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

CDI

Offre d'emploi
Data Engineer Talend - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance

Mission freelance
Ingenieur DevOps Senior

Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Jenkins

6 mois
620-680 €
Paris, France

Client est dans le secteur de Finance (Investment banking) Dans le cadre de cette mission d'ingénieur senior Devops, vous aurez les missions suivantes : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (surveillance et alertes incluses), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning inclus), Mise en place d'un plan de reprise d'activité et d'une ingénierie du chaos, Maintenance de plusieurs serveurs et actifs existants (outils et pipelines CI/CD inclus).

Freelance

Mission freelance
Développeur Senior Python/Angular/AWS

ABALSIA CONSULTING
Publiée le
Angular
AWS Cloud
Python

3 mois
400-500 €
Paris, France

Nous recherchons un·e développeur·se Full Stack expérimenté·e , maîtrisant les technologies modernes et motivé·e pour contribuer au développement et à l’amélioration des applications de notre client. Missions principales : Réalisation de POC techniques et validation des hypothèses de conception Rédaction de spécifications techniques détaillées Développement frontend & backend en adéquation avec notre plateforme (design patterns, APIs, etc.) Configuration et mise en place de la CI/CD (automatisation des livraisons) Implémentation de tests unitaires et automatisés Collaboration transverse pour l’évolution de la plateforme

Freelance
CDI

Offre d'emploi
Consultant Technico-Fonctionnel IAGEN

VISIAN
Publiée le
API
AWS Cloud
Business Intelligence

2 ans
40k-45k €
290-550 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Chef de projet MOA spécialisé IA pour intervenir sur un projet d’envergure lié à l’adoption et à l’intégration d’une plateforme interne d’Intelligence Artificielle auprès des utilisateurs finaux. La mission se déroulera au sein d’une équipe dédiée à l’adoption des technologies, dans un environnement international et innovant, avec un fort accent sur les enjeux métiers et l’usage des outils d’IA générative. Vos principales missions seront les suivantes : Interagir avec les utilisateurs métiers pour identifier, qualifier et formaliser leurs cas d’usage autour de l’IA générative. Participer à la mise en œuvre de solutions personnalisées, en collaboration avec les équipes produit et techniques. Documenter les travaux, suivre les incidents et les demandes via un backlog structuré. Organiser et animer des sessions de formation (webinaires) en français et en anglais pour favoriser l’acculturation et renforcer l’adoption de la plateforme. Accompagner les utilisateurs dans l’appropriation des fonctionnalités, tout en clarifiant les limites de l’outil. Contribuer à la structuration d’une base de connaissance et à la conduite du changement à travers des actions ciblées. Environnement technique : Vous évoluerez dans un écosystème moderne autour d’une plateforme IA propriétaire, utilisant notamment des modèles type ChatGPT 4.1. Le contexte technique comprend le développement Python, les architectures cloud (type AWS), les API, Elasticsearch, des outils comme JIRA, n8n, Dagster, VSCode, Jupiter. Un niveau opérationnel en anglais (B1/B2) est requis, notamment pour la conduite de formations et les échanges dans un contexte international. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.

Freelance
CDI

Offre d'emploi
Consultant Assurance Sécurité

ARDEMIS PARTNERS
Publiée le
Cybersécurité
Gouvernance

6 mois
40k-64k €
400-540 €
Paris, France

Client groupe international dans le domaine de l'assurance Services : Infrastructure informatique, technologies et services cloud, ainsi que les outils de sécurité associés ; Contrôle de la configuration (fichiers, console) pour garantir leur sécurité ; Réalisation d'audits de sécurité et d'analyses de preuves. Livrables : Formalisation et maintenance des procédures d'assurance sécurité technique (les procédures peuvent être génériques ou détaillées pour une technologie spécifique) ; Exécution de l'assurance sécurité technique des applications et infrastructures informatiques ; Support au suivi du renforcement de la sécurité des services d'infrastructure ;

Freelance

Mission freelance
DataOps Platform Engineer

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

24 mois
580-630 €
Paris, France

Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

82 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous