Trouvez votre prochaine offre d’emploi ou de mission freelance Cloud à Lille

Ce qu’il faut savoir sur Cloud

Le Cloud, ou informatique en nuage, désigne la fourniture de services informatiques via Internet. Ces services incluent le stockage de données, la puissance de calcul, les bases de données, les logiciels et bien plus, accessibles à la demande sans nécessiter d’infrastructure matérielle locale. Le Cloud est classé en trois modèles principaux : IaaS (Infrastructure as a Service), offrant des ressources comme des serveurs et des réseaux virtuels ; PaaS (Platform as a Service), fournissant un environnement pour développer et déployer des applications ; et SaaS (Software as a Service), permettant d’utiliser des logiciels directement en ligne sans installation locale. Les solutions Cloud offrent des avantages tels que la scalabilité, la réduction des coûts d'infrastructure, la flexibilité d'accès et des mises à jour automatiques. Elles sont largement adoptées dans les entreprises et les particuliers pour des applications allant de la sauvegarde de fichiers à des projets complexes nécessitant de grandes capacités de traitement, comme l’analyse de données ou l’intelligence artificielle.

Votre recherche renvoie 112 résultats.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
CDI

Offre d'emploi
DevOps AWS H/F

DAVRICOURT
Publiée le
DevOps

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
DBA AWS / Administrateur de base de données

Tenth Revolution Group
Publiée le
Amazon DynamoDB
AWS Cloud
Mongodb

3 ans
190-650 €
Lille, Hauts-de-France
Dans le cadre de l’évolution de son positionnement cloud, notre client recherche un DBA orienté AWS avec une forte appétence pour le développement et l’automatisation. Le rôle s’inscrit dans une transformation où les activités DBA traditionnelles évoluent vers un scope plus large mêlant gestion des données, développement et innovation . À ce titre, vos missions seront les suivantes : Administrer, optimiser et maintenir les bases de données ( AWS RDS, DynamoDB, MongoDB ) Garantir la performance, la disponibilité et la sécurité des environnements data Développer des endpoints API en Python pour exposer et exploiter les données Automatiser l’infrastructure via des playbooks Terraform Participer à des POC autour de nouvelles solutions Cloud/Data Rédiger de la documentation technique et contribuer à la veille technologique
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
DevOps (GCP / Terraform / Python / VueJS)

ESENCA
Publiée le
Azure
Google Cloud Platform (GCP)
Python

1 an
Lille, Hauts-de-France
🧭 Contexte & objectif Dans le cadre du développement de plateformes cloud internes, vous participez à la conception et à l’évolution de solutions permettant aux équipes de déployer rapidement leurs environnements sur le cloud public. Ces plateformes, basées sur des principes de self-service , offrent des environnements préconfigurés, sécurisés et automatisés afin d’accélérer le déploiement des applications. 🚀 Missions principales🔧 Développement Concevoir et développer des composants backend (Python) et frontend (VueJS) Développer des solutions d’ Infrastructure as Code (Terraform) sur GCP principalement Participer à l’évolution des plateformes cloud (type Landing Zone) Développer des outils d’ automatisation réseau (firewall, opérations réseau) Implémenter des API et services backend 🏗️ Architecture & conception Proposer des solutions techniques basées sur les services natifs des cloud providers Concevoir des architectures cloud natives, sécurisées et automatisées Participer aux revues de code et d’architecture Contribuer à la définition des standards techniques et bonnes pratiques ✅ Qualité & tests Mettre en place et maintenir des tests automatisés et unitaires Garantir la qualité, la performance et la maintenabilité du code 🛠️ Maintenance & support Corriger les anomalies et bugs Maintenir et améliorer les solutions existantes Accompagner les équipes dans l’utilisation des plateformes 🧠 Compétences techniques🔥 Impératives GCP (niveau expert) Terraform (niveau expert) Python (niveau expert) VueJS / Frontend ➕ Importantes Azure (niveau confirmé) 🌍 Langues Français courant (impératif) Anglais professionnel (souhaité)
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI

Offre d'emploi
Data Ops Engineer AWS / Databricks H/F

DAVRICOURT
Publiée le
Databricks

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
Freelance

Mission freelance
Data Engineer / Architecte Data (GCP)

ESENCA
Publiée le
Architecture
Big Data
BigQuery

1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Freelance

Mission freelance
Expert(e) Métier Omnicanalité / Supply Chain / OMS

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Supply Chain

3 ans
100-550 £GB
Lille, Hauts-de-France
Missions principales1. Cadrage & Formalisation Rédiger les documents de cadrage métier. Définir les processus cibles pour les nouveaux projets ou l’évolution des outils existants. Produire des documents pédagogiques et supports de démonstration. 2. Optimisation Supply Chain Analyser les flux logistiques du stock jusqu’au client. Identifier les points de friction et proposer des solutions pour fiabiliser le parcours produit. Contribuer à la construction d’un modèle opérationnel omnicanal cohérent et partagé. 3. Pilotage par la Data Exploiter les données de performance (dont requêtes BigQuery – GCP). Mesurer l’impact des optimisations. Proposer des plans d’action pour améliorer l’efficacité opérationnelle. 4. Animation & Amélioration Continue Animer des ateliers avec les BU et plateformes logistiques. Diffuser les bonnes pratiques. Assurer la cohérence globale des processus entre les pays et entités.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
Developpeur fullstack expert python

HAYS France
Publiée le
Google Cloud Platform (GCP)
Python
Test unitaire

3 ans
100-450 £GB
Lille, Hauts-de-France
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Freelance

Mission freelance
Lead Developer Java / VueJS

ESENCA
Publiée le
Google Cloud Platform (GCP)
IA
Java

1 an
Lille, Hauts-de-France
Description de la mission Le Lead Developer intervient sur la conception et le développement de produits digitaux critiques, tout en diffusant une culture d’excellence technique au sein de l’équipe. Missions principales1. Leadership technique & architecture Concevoir et garantir une architecture modulaire (Spring Modulith) Assurer l’isolation des modules et la cohérence des APIs internes Encadrer les choix techniques et accompagner les développeurs 2. Développement backend & frontend Développer des services backend robustes (Java, Spring, Hibernate) Concevoir des interfaces performantes en VueJS Gérer des modèles de données complexes (PostgreSQL, JSONB) 3. Performance & scalabilité Mettre en place et optimiser des mécanismes de cache distribué (Redis) Gérer les problématiques de sérialisation et d’invalidation Assurer la performance globale des applications 4. Qualité & tests Mettre en œuvre des pratiques TDD/BDD Développer des tests unitaires et d’intégration (TestContainers, Wiremock) Garantir la conformité des APIs (OpenAPI) 5. Innovation & IA Intégrer des solutions d’IA générative (Spring AI, Vertex AI) Concevoir des mécanismes de génération de règles métier et d’analyse Participer à l’ingénierie de prompts et à l’intégration applicative Compétences techniques Java (Spring / Spring Modulith) – Expert – Impératif VueJS – Confirmé – Impératif Google Cloud Platform (GCP) – Confirmé – Souhaitable IA Générative (Spring AI, Vertex AI) – Confirmé – Souhaitable Connaissances linguistiques Anglais professionnel – Impératif
Freelance

Mission freelance
Lead QA

ESENCA
Publiée le
API
Cypress
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Objectif global Animer et piloter l’équipe qualité en définissant la stratégie de tests et en garantissant l’excellence opérationnelle des solutions digitales. Contexte Environnement digital à fort enjeu autour de la performance financière et de la fiabilité des données. Les systèmes concernés (comptabilité, paiements, reporting) sont critiques et nécessitent un haut niveau d’exigence en matière de qualité. Contraintes du projet Certification ou connaissance ISTQB requise Contexte international Forte exigence de fiabilité et de précision Livrables (Non spécifiés – mission orientée pilotage, stratégie et exécution qualité) Compétences techniques Cypress, Playwright ou Selenium – Confirmé – Impératif Tests d’API (Postman / Newman, Bruno) – Confirmé – Impératif Connaissances linguistiques Anglais professionnel – Impératif Description de la mission Le Lead Qualité intervient sur une plateforme digitale stratégique afin de définir la vision qualité et piloter l’ensemble des activités de tests, sur des solutions développées en interne ou intégrées. Missions principales1. Stratégie et gouvernance Définir et porter la stratégie globale de tests adaptée à la criticité des produits Mettre en place et suivre les KPI qualité (couverture, anomalies en production, MTTR) Promouvoir une approche Shift Left en intégrant la qualité dès la conception 2. Expertise QA – Développement interne (MAKE) Définir et déployer les stratégies de tests automatisés (unitaires, intégration, E2E) Industrialiser les tests dans les pipelines CI/CD (GitLab) Piloter les tests non fonctionnels : performance, charge, sécurité 3. Pilotage qualité – Solutions intégrées (BUY) Garantir la fiabilité des flux de données entre systèmes Coordonner les phases de recette métier (UAT) Assurer la non-régression lors des évolutions et montées de version
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
Freelance
CDI

Offre d'emploi
Scrum Master - CRM

VISIAN
Publiée le
CRM
Salesforce

1 an
Lille, Hauts-de-France
Contexte L’objectif de la mission est d’intégrer la squad en tant que Scrum master. Le périmètre de la squad est le suivant : Genesys Cloud, Salesforce Module Marketing Cloud ainsi qu'une application développée en interne pour l'envoi des communications clients. Missions Animation de l'équipe (9 ETP) Animation et suivi de la backlog Gestion du capacitaire de l'équipe Assurer la bonne communication entre l'équipe, l'écosystème IT et le métier Priorisation de la backlog avec le PO/Proxy PO Assurer le reporting et le suivi des indicateurs de performances de l'équipe Animer la mise en place de l'observabilité des applications de la squad

Les métiers et les missions en freelance pour Cloud

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des technologies Cloud pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement et de livraison continue dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit et déploie des solutions d'infrastructure Cloud adaptées aux besoins de l'entreprise, en choisissant les bonnes plateformes (comme AWS, Azure ou Google Cloud) et en optimisant la scalabilité et la sécurité.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Cloud, en garantissant leur performance, leur sécurité et leur alignement avec les besoins métiers.

Administrateur·rice réseaux

L'Administrateur·rice réseaux gère les ressources Cloud dans une organisation, configure et maintient les services Cloud (comme les machines virtuelles, les bases de données ou les applications hébergées) tout en assurant la sécurité et la fiabilité des services.

112 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous