Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP) à Paris

Ce qu’il faut savoir sur Google Cloud Platform (GCP)

Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Votre recherche renvoie 116 résultats.
Freelance
CDI

Offre d'emploi
ingénieur système

Publiée le
Ansible
Cloud
Elasticsearch

12 mois
40k-61k €
400-610 €
Paris, France
Réaliser l’ingénierie autour des services managés de notre infrastructure (récolte du besoin, création, automatisation) Architecturer et opérer une infrastructure SI avec du SDN, OpenStack, Ceph et Firewall Monitorer et s’assurer du bon fonctionnement de l’infrastructure Assurer le maintien en condition opérationnelle de l’infrastructure, aussi bien matériellement que logiciellement Participer à l’effort des réponses d’incidents et de retours d’expérience Nous avons en particulier comme projet à court terme : Migration de notre Système d’Information historique sur notre Cloud Privé Openstack Création, automatisation et maintien des services managés internes (PostgreSQL as a Service, Elasticsearch as a Service, RabbitMQ, Redis, …) Transformation de nos systèmes de monitoring vers de nouvelles solutions (de Munin à Prometheus en cluster) Voir moins Profil recherché Ces missions nécessitent de savoir travailler en équipe, d’apprécier la résolution de problématiques complexes, ainsi que des connaissances basiques en réseau au sein de l’univers des télécoms. Vous évoluerez sur les technologies suivantes : Linux, OpenStack, Docker, Ceph, Ansible, Terraform, Consul, Packer, Nomad, Gitlab (+CI), Prometheus. Compétences nécessaires : Cloud (Privé ou public : AWS, GCP, Azure, OVH) Compréhension du fonctionnement des services managés (PostgreSQL, Elasticsearch, Redis, RabbitMQ,…) Infra as Code : Terraform Ansible (configuration management) Grafana / Prometheus pour l’observabilité Vous possédez idéalement des notions sur : conteneurs type Docker, Intégration continue (CI) /Déploiement continu (CD) et de service discovery. Un bon niveau d’Anglais technique est nécessaire pour appréhender l’environnement technique, échanger efficacement avec nos fournisseurs et collègues et répondre à nos clients internationaux.
CDI

Offre d'emploi
Consultant Administrateur Applicatif BI / Data

Publiée le
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Freelance

Mission freelance
Cloud Delivery Manager

Publiée le
Azure
ITIL

1 an
Paris, France
Télétravail partiel
Contexte Dans le cadre du renforcement de son équipe IT Production, notre client recherche un Cloud Delivery Manager afin de piloter et optimiser son environnement de production cloud. Le périmètre couvre principalement Azure (85 %), avec une composante GCP. L’objectif : garantir la stabilité, la performance et la sécurité de plateformes critiques dans un contexte international. Missions • Superviser l’environnement de production cloud et garantir la continuité de service. • Piloter la gestion des incidents, problèmes et changements selon les bonnes pratiques ITIL. • Coordonner les équipes internes, les partenaires cloud et l’infogérant. • Conduire les cellules de crise et assurer une communication efficace avec les parties prenantes. • Produire le reporting hebdomadaire et mensuel (incidents, changements, patching, sauvegardes). • Analyser les données opérationnelles, identifier les tendances et proposer des actions d’amélioration continue. • Participer à la gouvernance opérationnelle et aux comités techniques. • Contribuer à l’optimisation des processus, des outils de supervision et des pratiques de delivery.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance
CDI

Offre d'emploi
INGENIEUR MACHINE Learning Engineering

Publiée le
MySQL
Python

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Développeur Python (Full remote)

Publiée le
FastAPI
Python

9 mois
370-420 €
Paris, France
Télétravail 100%
📌 Fiche de Poste – Développeur Python FastAPI 🎯 Contexte Nous recherchons un Développeur Backend Python spécialisé sur FastAP I pour renforcer une équipe tech travaillant sur des applications modernes et scalables. Le poste est ouvert en full remote (avec possibilité d’intervenir ponctuellement à Paris si souhaité). 🚀 Missions principales En collaboration avec les autres développeurs, Product Owner et DevOps, vos responsabilités incluront : • Développer et maintenir des API REST performantes avec FastAPI. • Concevoir et implémenter des microservices robustes et sécurisés. • Intégrer et optimiser les bases de données ( PostgreSQL, MongoDB, etc.). • Écrire des tests unitaires et d’intégration pour garantir la qualité du code. • Participer aux revues de code et à l’amélioration continue des bonnes pratiques. • Contribuer à la documentation technique et au suivi des User Stories. • Collaborer avec l’équipe produit et les QA pour assurer des livraisons fiables. 🛠️ Stack technique & environnement • Langage : Python 3.x • Framework : FastAPI • Bases de données : PostgreSQL , MongoDB, Redis • CI/CD : GitLab CI/CD, Docker, Kubernetes • Tests : Pytest, coverage • Cloud : AWS / GCP (selon projet) • Outils : Git, Jira, Confluence ⭐ Bonus • Connaissance des principes SOLID et du Clean Code. • Pratique de l’approche DDD ou Event-Driven Architecture. • Expérience dans des environnements Agile / Scrum.
Freelance

Mission freelance
Devops delivery IA(H/F)

Publiée le
DevOps

3 mois
100-480 €
Paris, France
Télétravail partiel
TJM Max 480 euros non Négociable 2 Jours de TT non négociable Au sein de la DSI de SFR, la Direction Modernisation du SI, DATA et IA est en charge des projets et plateformes DATA&IA, avec un ADN de transformation des usages et des processus. Sur l'intelligence artificielle, plusieurs étapes ont été franchies en 2025 passant par la mise en place d'un processus d'identification des cas d'usages IA ainsi l'expérimentation consolidée sur une plateforme commune sur Google Cloud Plateform, avec à la clé quelques produits IA mis en production et déployés pour tous. Notre objectif pour 2026 est d'élargir la liste des produits IA et chercher une intégration simplifiée dans les processus Métiers. Augmenter notre capacité de production exige une disponibilité d'un processus et outillage DevOps exigeant et solide. Pour la bonne exécution de cet objectif, SFR est à la recherche d'une prestation avec un profil DevOps expérimenté pour piloter la structration de la chaîne de développement, de tests et d'observabilité. DEFINITION DE LA PRESTATION 'Dans le cadre de cette mission, la prestation adressera 4 volets majeurs en étroite relation avec l'équipe de développement et les chefs de projet : 1/ DevOps : - Réaliser un inventaire de la chaîne DevOps, la documenter et proposer une cible répondant aux enjeux d'automatisation et la maîtrise de la qualité, tout en respectant le cadre Valentine Cloud - Contribuer à la mise en oeuvre de la cible - Animer les travaux au global pour atteindre cette cible 2/ Monitoring & Troubleshooting : - Proposer une architecture et un outillage pour la mise en oeuvre d'une observabilité - Mettre en oeuvre cette architecture & piloter les contributions de l'équipe de développement - Accompagner l'onboarding des développeurs, testeurs et chefs de projet 3/ Pilotage de l'activité : - Contribuer à la mise en oeuvre des dispositifs de pilotage de l'activité Pour l'ensemble de ces activités, une gouvernance ainsi qu'un reporting régulier et clair doivent être mis en place. Indispensable DevOps, GitLab, Elastic, Python, NodeJS Profil ayant travaillé sur des projets IA sur Google Cloud
Freelance

Mission freelance
data scientist

Publiée le
Data science

12 mois
400-550 €
Paris, France
Télétravail partiel
Prise en charge la réalisation des études et du développement des cas d’usage d’intelligence artificielle identifiés dans le cadre de plan stratégique mais aussi de besoins ad hoc remontés pour améliorer notamment l’efficacité opérationnelle. Dans ce cadre les missions et activités principales sont : • Identifier, tester et implémenter des approches permettant d’exploiter des technologies de machine learning et d’IA générative au service des processus risques • Explorer et exploiter les données internes • Faire évoluer les applicatifs IA existants (notamment applicatif de production GCP sur un cas d’usage de ciblage) • Echanger avec les équipes DSI et autres équipes de Data Scientists du Groupe • Assurer une veille technologique sur les évolutions des technologies d’IA générative
Freelance
CDI

Offre d'emploi
DATA Engineer Senior GCP-python

Publiée le
Gitlab

18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
Data Analyste Senior

Publiée le
Microsoft Power BI
Piano Analytics
SQL

210 jours
Paris, France
Télétravail partiel
Contexte et définition du besoin Une grande Direction Data rattachée à la Direction du Numérique d’un acteur majeur du secteur médias / contenus numériques recherche un Data Analyste Senior pour soutenir la transformation data-driven et le pilotage des performances de ses plateformes numériques. La mission vise à accompagner les équipes produit et éditoriales sur l’analyse de la performance des contenus jeunesse dans un contexte de forte évolution des usages digitaux. 2. Prestations attendues Analyse et reporting Recueil et formalisation des besoins auprès des équipes internes. Définition des sources de données et rédaction des cahiers des charges à destination des Data Engineers. Conception, automatisation et maintenance des dashboards Power BI . Itérations et validations en mode agile. Accompagnement et pilotage Coaching et acculturation data des équipes internes. Définition, harmonisation et suivi des KPIs transverses. Contribution au déploiement et à l’amélioration du tracking multi-supports (Web, App, TV). Formalisation des besoins analytics en lien avec les équipes produit et techniques. Analyse des usages Analyse des audiences et comportements utilisateurs via Piano Analytics / AT Internet , Nielsen , eStat Streaming . Analyse des parcours et de l’expérience utilisateur avec ContentSquare . Collaboration avec l’équipe Études pour les analyses vidéo et usage. 3. Compétences recherchées Compétences techniques Maîtrise confirmée de : Piano Analytics / AT Internet , eStat Streaming, Nielsen. Expertise Power BI. Très bonne connaissance SQL. Connaissance GCP, Power Automate. Outils : Excel, PowerPoint, Jira, Confluence, GetFeedback/Usabilla. Compétences solides en tracking multi-supports. Expérience en analyse UX avec ContentSquare. Compétences fonctionnelles Capacité à structurer des KPIs, piloter des sujets analytics et produire des reporting fiables. Expérience en coaching et accompagnement data. Gestion de projet.
Freelance

Mission freelance
Ingénieur / Spécialiste IT Operations (H/F)

Publiée le
Administration linux
Ansible
Cloud

36 mois
400-450 €
Paris, France
Télétravail partiel
Votre Rôle et l'Environnement En tant qu'Ingénieur/Spécialiste IT Operations, vous serez un pilier central de l'équipe technique, garantissant la stabilité, la performance et la sécurité de l'infrastructure informatique. Vous travaillerez dans un environnement dynamique et international, nécessitant une maîtrise professionnelle de l'anglais pour interagir avec des équipes, des fournisseurs et des documentations techniques à l'échelle mondiale. Missions Principales (Key Responsibilities) Gestion et Maintenance (Operations & Maintenance): Assurer le maintien en condition opérationnelle (MCO) des systèmes (serveurs, réseaux, stockage, virtualisation) dans un environnement on-premise et Cloud (AWS, Azure, Google Cloud) . Surveiller l'infrastructure 24/7 (ou pendant les heures d'ouverture) à l'aide d'outils de monitoring (Nagios,Prometheus,Grafana, etc.) et répondre aux alertes. Gérer les sauvegardes (backup) et les plans de reprise d'activité (DRP - Disaster Recovery Plan). Support et Résolution d'Incidents (Incident & Problem Management): Diagnostiquer et résoudre rapidement les incidents techniques de niveau 2 et 3. Documenter les résolutions et participer à l'analyse des causes profondes (Root Cause Analysis - RCA) pour prévenir les récurrences. Projets et Amélioration Continue (Projects & Improvement): Participer à l'installation, la configuration et la mise à niveau de nouvelles infrastructures et applications. Contribuer à l'automatisation des tâches récurrentes (scriptingShell,Python,PowerShell) et à l'approche Infrastructure as Code (IaC) . Mettre en œuvre les politiques de sécurité (patching, gestion des accès, pare-feu). Communication et Documentation (Communication & Documentation): Rédiger la documentation technique (procédures, schémas) en anglais. Interagir quotidiennement en anglais avec les équipes internationales et les fournisseurs.
Freelance

Mission freelance
Développeur Fullstack / AI

Publiée le
Python

6 mois
590-600 €
Paris, France
echerche d’un développeur fullstack expérimenté (5 à 8 ans) pour contribuer au développement d’un agent conversationnel interne destiné à renforcer la créativité et la productivité des collaborateurs. Le produit consiste en une application web intégrant des capacités génératives via des APIs internes ou externes. Missions : – Implémenter des interfaces front-end attractives, responsives et alignées avec les maquettes UI/UX – Développer des fonctionnalités back-end robustes, scalables et basées sur des user stories – Concevoir, maintenir et optimiser une base de données Firestore – Créer, exposer et maintenir des APIs pour la communication front/back – Appliquer les bonnes pratiques de développement (tests unitaires, documentation…) – Collaborer étroitement avec les équipes design, produit et technique – Intégrer des APIs génératives (ex. Firefly, Gemini, APIs internes) Environnement technique : Cloud & Infra – GCP (Cloud Run, Firestore, Cloud Storage…) Back-end – Python – FastAPI Front-end – React – TypeScript – ViteJS – Material UI Fullstack – Compétences fullstack indispensables, notamment pour une potentielle migration back-end vers Next.js Modalités : – Démarrage : 1er janvier 2026
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
CDI

Offre d'emploi
LEAD DEVOPS APPLICATIF JAVA

Publiée le
CI/CD
DevOps
Java

50k-75k €
Paris, France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

Publiée le
Azure
Python

1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP

Les métiers et les missions en freelance pour Google Cloud Platform (GCP)

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.

Architecte Cloud

L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.

Responsable des infrastructures et de la production

Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.

116 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous