Trouvez votre prochaine offre d’emploi ou de mission freelance Google Cloud Platform (GCP)
Ce qu’il faut savoir sur Google Cloud Platform (GCP)
Google Cloud Platform (GCP) est une suite de services de cloud computing proposée par Google, permettant aux entreprises et aux développeurs de construire, déployer et faire évoluer des applications, des sites web et des services en s'appuyant sur la même infrastructure que celle utilisée par Google pour ses propres produits, comme la recherche ou Gmail. GCP offre une gamme étendue de produits et services, incluant des solutions de calcul avec Compute Engine pour les machines virtuelles, App Engine pour le déploiement d'applications, et Google Kubernetes Engine pour l'orchestration de conteneurs. Dans le domaine du stockage et des bases de données, GCP propose des outils comme Cloud Storage pour le stockage d'objets, Cloud SQL pour les bases de données relationnelles, et BigQuery pour l’analyse de données à grande échelle. En matière de réseaux, des services tels que Virtual Private Cloud (VPC), Cloud Load Balancing et Cloud CDN permettent d’optimiser les performances et la distribution de contenu. Pour l’intelligence artificielle et le machine learning, GCP offre Vertex AI pour le développement de modèles d’apprentissage, ainsi que des API pré-entraînées pour la reconnaissance visuelle, le traitement du langage et la synthèse vocale. Enfin, GCP inclut des outils de gestion et de développement comme Cloud Deployment Manager pour le déploiement de ressources, et Cloud Console pour la gestion des services. Grâce à son infrastructure mondiale, GCP fournit des performances élevées, une scalabilité flexible et des solutions de sécurité avancées, aidant les entreprises à innover et à réussir leur transformation numérique.

Mission freelance
Développeur(se) Back-End Python
Nous recherchons un(e) Développeur(se) Back-End Python expérimenté(e) pour rejoindre l'équipe Network Content Delivery d'un de nos client , composée d’un Tech Lead, d’un Engineering Manager et de Software Engineers. Objectif : développer des fonctionnalités provider agnostic afin de consommer nos produits réseau (Load Balancing, Content Delivery Network, Anti-Bot). Vos missions : Contribuer à l’automatisation des tâches de support et d’administration. Construire et exploiter des infrastructures sécurisées et résilientes multi-providers (GCP, Azure). Analyser, paramétrer et coder des composants logiciels applicatifs dans le respect des normes et procédures. Identifier et gérer la dette technique. Participer au cycle de run et mettre en place des mesures correctives pour résoudre les incidents. Collaborer dans un environnement Agile (Scrum).
Mission freelance
[LFR] Mission de Consultant BI | Sénior - 3j/sem Remote - Toulouse - 813
profil: 4 ans expérience data démarrage début Septembre 2025 mission longue (min 12 mois) notre client recherche un Consultant BI pour intervenir sein du domaine Data de la DSI, pour le Marché Concurrence, en particulier, les projets Marketshare factory (données de la concurrence) et Ancillaries (options payantes). Anglais courant (Recueil des besoins, réunion de suivi, documentation) équipe en place de 8 personnes Agile SAFe Inno./Cont./Maint. : 30% / 60% / 10% compétences techniques demandées : SQL et Big data : niveau expérimenté à senior (autonome) Java / GitHub : niveau intermédiaire BO / PowerBI : bon niveau d’autonomie sur les outils de data visualization Expérience GCP/BigQuery ou capacité à apprendre et monter en compétence rapidement sur GCP. soft skills: Autonomie Curiosité Capacité à concevoir des architectures logicielles scalables et performantes.

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Mission freelance
Product Owner IA
Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.
Offre d'emploi
CDI – Senior Full Stack Java Developer / Coordinateur – Secteur Banque & Finance
Nous recherchons un Senior Full Stack Engineer confirmé avec des compétences en Java et une capacité de coordination dans un contexte international. 🎯 Missions principales Migration d’applications C/C++ vers Java ou Python . Analyse et optimisation de pipelines ETL . Conception et développement de microservices de reporting : Extraction de données depuis Oracle, PostgreSQL, Kafka, MQ, Pub-Sub, Solace, SFTP, NAS. Transformations et enrichissements complexes. Publication en temps réel via Kafka, MQ, Pub-Sub, Solace ou bases de données. Mise en place et maintenance des pipelines CI/CD (Maven, Gradle, Jenkins, Docker, Kubernetes, Ansible). Coordination et communication avec des équipes globales (Asie, Europe, Amériques). Respect des standards de qualité, sécurité et conformité réglementaire. ✅ Compétences requises Solide expérience en Java (Streams, Lambdas, Annotations…) et Spring Boot . Bonne maîtrise des bases SQL/NoSQL (Oracle, PostgreSQL, MongoDB, Redis, Clickhouse). Expertise en messaging systems (Kafka, JMS, Solace, Pub/Sub…). Compétences DevOps & CI/CD : Maven, Gradle, Jenkins, Docker, Kubernetes, Ansible. Connaissances Cloud (GCP apprécié). Bon niveau d’anglais, écrit et oral. Capacité de coordination et communication avec des équipes internationales. ⭐ Atouts supplémentaires Expérience en Fixed Income (Rates, Credit, Bonds, IRS, CDS). Connaissance du pricing ou de la gestion des risques . Certifications Java / Cloud / DevOps. Anglais courant

Offre d'emploi
Ingénieur·e C# – Calcul distribué & Cloud en finance de marché
Nous intervenons sur des sujets à haute intensité technologique : HPC, IA, architectures distribuées, performance des systèmes de calcul, cloud natif, avec une spécialisation historique dans la finance de marché (CIB) . Nous collaborons avec les grandes banques d’investissement françaises (CA-CIB, BNP-CIB, SG-CIB…) sur des projets critiques en lien direct avec les équipes trading , risk , quant et IT stratégie , au cœur des systèmes de pricing , de calcul de risques et d’ exécution . 🎯 Le poste Nous recherchons un·e ingénieur·e C# confirmé·e ou senior pour renforcer une équipe technique stratégique au sein d’une banque d’investissement de premier plan . Dans un environnement cross-fonctionnel , vous collaborerez avec les IT Quants , les équipes Risk & Pricing , les développeurs de la DSI et les expert·es Infrastructure & Cloud , afin de participer à la modernisation complète du SI. Vos principales missions : ⚙️ Refonte et développement d’une plateforme de calcul de nouvelle génération , intégrant des moteurs de pricing de produits dérivés, des outils de simulation et de risk calculation fortement parallélisés, dans une architecture en transformation vers les microservices et le cloud-native . 📈 Évolution et optimisation des progiciels de marché (X-Asset) utilisés pour le suivi des opérations Front-to-Back-to-Risk , dans un cadre hautement régulé. ☁️ Migration des grilles de calcul on-premise vers le cloud (AWS, GCP, Azure), avec ArmoniK , notre orchestrateur open-source haute performance dédié au calcul financier. 🧠 Analyse de performance, profiling mémoire/CPU , tuning, pour respecter des SLA exigeants dans des environnements batch intensifs ou temps réel. Vous évoluerez dans un environnement agile , exigeant et collaboratif , porté par une culture d’ excellence technique , de craft et de clean code . 🛠️ Environnement technique Langages & Frameworks : C#, .NET Core, ASP.NET, SQL, scripting Python (bonus) Architecture : microservices, API REST, GRPC, message bus (Kafka, RabbitMQ) Cloud & Infra : AWS, Azure, GCP — Kubernetes, Docker, Terraform CI/CD & Qualité : GitLab CI, Jenkins, SonarQube, test coverage, automatisation Pratiques : POO, SOLID, clean code, TDD, code review rigoureuse Calcul intensif & optimisations : HPC, multithreading, SIMD/AVX, vectorisation, gestion fine de la mémoire/cache

Mission freelance
Urgent Un Consultant FinOps confirmé sur IDF + TT
Urgent Smarteo recherche pour l'un de ses clients, Un Consultant FinOps confirmé sur IDF + TT Projet : Expertise de l'interface financière avec minimum de 5 ans d'exp sur FINOPS AWS et GCP Etablir et diffuser la vision consommation pour l’entité cliente pour les différents périmètres d’activités infogérés, Analyser les services consommés, s'appuyer sur les sachants techniques pour proposer et valoriser des recommandations d’optimisations sur les volumes concernés afin d'optimiser la facturation et l'empreinte carbone du client Préparer les supports de certains comités de suivi financier et carbone avec le client Accompagner les équipiers dans leur maîtrise de consommation des services et d’optimisation de l’usage des plateformes technologiques, au regard de nos engagements de volumes Accompagner la montée en compétences des équipes sur le FINOPS cloud Public Compétences requises : Profil souhaité : Esprit critique; Conseil et Sens du service; Animation; Prise d'initiative et force de proposition; Bon relationnel Outils informatiques : Excel Connaissances FINOPS AWS et GCP Power BI serait un plus Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jours en format word.

Mission freelance
POT8608-Un Product Owner IA sur Grenoble
Almatek recherche pour l'un de ses clients, un PO IA sur Grenoble. Context : Le prestataire sera responsable de la définition, de la priorisation et de la mise en œuvre des fonctionnalités de la plateforme, afin de soutenir : Les workflows classiques de machine learning, Les outils low-code/no-code destinés aux « citizen developers » et aux utilisateurs métiers. Cela implique une collaboration étroite avec les équipes d’ingénierie, de MLOps, de gouvernance des données et de conformité, afin de garantir des solutions robustes, évolutives et centrées sur l’utilisateur. Livrables attendus: Définition et priorisation du backlog: Établir et maintenir un backlog clair, exploitable et aligné sur les besoins des utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités de plateforme. Contribuer à la planification des Program Increments (PI) et à l’affinage du backlog conformément aux pratiques Agile SAFe. Découverte produit et validation: Mener des activités de discovery afin de valider les problématiques utilisateurs et tester les idées de solutions. Veiller à ce que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transverse: Coordonner avec les parties prenantes internes (ingénierie, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption et accompagnement de la plateforme: Soutenir l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’utilisation et recueillir les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et accompagner les citizen developers grâce à des outils intuitifs et une documentation claire. Contribution stratégique: Définir et communiquer la vision autour du machine learning classique et de l’approche low-code/no-code. Identifier des opportunités d’innovation et d’amélioration de l’efficacité. Se tenir informé des tendances du marché et des technologies émergentes. Compétences requises: Expérience avérée en tant que Product Owner ou Product Manager, idéalement dans le domaine des plateformes data/IA. Solide compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience dans des environnements cloud natifs (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion des parties prenantes. Compétence linguistique: anglais courant.
Mission freelance
Consultant FinOps Confirmé – Secteur Banque - 807
Dans le cadre d’un projet stratégique de pilotage et d’optimisation des consommations cloud, notre client, un grand groupe bancaire basé à Guyancourt, souhaite renforcer ses équipes avec un Consultant FinOps confirmé. L’objectif est de structurer, analyser et optimiser la gestion des coûts liés à l’usage du cloud public (AWS & GCP), tout en accompagnant les équipes internes dans une montée en compétences durable sur les sujets FinOps. Le consultant interviendra en transverse auprès de plusieurs entités pour : - Définir et diffuser la vision de consommation cloud (coût et empreinte carbone) pour les différents périmètres infogérés. - Analyser les services cloud consommés et proposer des recommandations d’optimisation en collaboration avec les experts techniques. - Optimiser les coûts de consommation cloud et contribuer à la réduction de l'empreinte carbone. - Préparer des supports de comités de pilotage financier et environnemental avec les parties prenantes. - Sensibiliser et accompagner les équipes internes dans la maîtrise de leur consommation cloud et l’optimisation des usages en lien avec les engagements contractuels. - Contribuer à la montée en compétences des équipes sur les pratiques FinOps dans un environnement cloud public (AWS, GCP). Livrables attendus : - Tableau de bord de suivi de la consommation cloud et des KPIs associés - Recommandations d’optimisation des coûts et de réduction carbone - Supports de comités (financier / carbone) - Plan de montée en compétences des équipes internes - Documentation des bonnes pratiques FinOps adaptées au contexte client

Mission freelance
POT8610-Un Concepteur / Développeur Nuxeo / Java sur Nanterre
Almatek recherche pour l'un de ses clients Un Concepteur / Développeur Nuxeo / Java sur Nanterre. Activités : Le Consultant réalisera les missions suivantes : - Concevoir des projets GED Nuxeo (faire des ateliers de conception, analyser la solution technique, chiffrer, documenter…). Les besoins sont de typess : mise en place de nouvelles GED avec une migration des données, avec l’interfacage avec d’autres application (applications Métier, MS 365, Archivage, Signature Electronique…) - Réaliser la mise en place de GED Nuxeo avec l’interfaçages avec d’autres solutions. Cela nécessite également de l’utisation des composants existants ou développer de nouveaux composants) - Réaliser la migration des GED actuelles (volumétrie : quelques centaines milliers documents à quelques dizaines milliones documents selon les projets) - Réaliser les tests de performances - Accompagner l’équipe à faire la montée en compétences sur Nuxeo et faire du support techique/fonctionnel pour toutes questions d’expertive relatives à cette solution - Maintenir les projets GED Compétences requises : - Pour cette prestation, nous cherchons 2 concepteur-développeur-intégrateur senior avec des compétences suivantes : - Une très bonne maîtrise de Nuxeo sur le paramétrage et le fonctionnement du produit et ses composants afin de pourvoir mettre en place/migrer/maintenir des projets de GED - Une très bonne maîtrise de Java Parallèlement, il faudrait avoir ces compétences suivantes : Une connaissance significative de la conception et du développement, Une maîtrise des outils de devéloppement nécessaires pour les projets GED Nuxeo Angular, JavaScript, PostgreSQL, MongoDB Tomcat, Apache ElasticSearch, OpenSearch Kafka, Zookeeper JUnit, Guice, SoapUI, JMeter Jira, Confluence Une maîtrise des outils de déploiment Devops (automatisation et CICD, Conteneurisation et orchestration etc) sur ces environnements Linux, Windows, cloud AWS, GCP, on premise Compétences organisationnelles et posture : Se focalise sur le besoin utilisateur, possède un esprit agile, Aime partager ses connaissances et a bon un esprit d’équipe, de relationnel Est force de proposition, est à l’écoute et fait preuve d’ouverture d’esprit, Cherche à améliorer la qualité des produits ainsi que les pratiques de l’équipe projet et du pôle, S’adapte au contexte et contraintes du client. Localisation : Nanterre + 2 jrs de TT
Mission freelance
ingénieur AI Automation en 100% télétravail
🚨 URGENT – Appel à tous les experts Freelance en IA & Automatisation ! 🚨 Nous recherchons un Automation & AI Solutions Engineer en freelance (remote) pour une mission de 12 mois . C’est une opportunité unique de travailler sur des projets d’ IA et d’automatisation de pointe (incluant GenAI avec LangChain ) visant à optimiser les opérations et à générer un réel impact business. 🎯 Vos missions : Concevoir et implémenter des workflows d’automatisation et des solutions IA/GenAI (Python, Java, LangChain). Intégrer des APIs, bases de données et services externes dans des pipelines d’automatisation. Développer, tester et déployer des modèles d’IA ( OpenAI, Azure AI Foundry, Hugging Face, etc. ). Collaborer avec les parties prenantes pour livrer des solutions scalables, performantes et sécurisées . 🔍 Profil recherché : Excellentes compétences en Python et Java . Expérience pratique avec LangChain et les frameworks GenAI . Maîtrise de l’intégration API et des bases de données ( SQL/NoSQL ). Expérience cloud ( AWS, Azure ou GCP ). Bonus : connaissance de Git, CI/CD, Docker/Kubernetes . 📌 Mission en télétravail , durée 12 mois – idéale pour un freelance prêt à relever un défi stratégique et à créer de la valeur concrète

Offre d'emploi
Tech lead microservices
Contexte Dans le cadre du renforcement de son pôle technique, une entreprise du secteur de l’efficacité énergétique recherche un(e) Tech Lead Microservices pour encadrer une équipe de développement et piloter la mise en place d’architectures distribuées modernes. Missions principales Leadership technique Définir et diffuser les bonnes pratiques de développement et d’architecture. Encadrer et accompagner l’équipe de développeurs (coaching, revue de code). Garantir la cohérence technique des projets et leur intégration. Conception & développement Concevoir et optimiser des services et API distribués. Participer à la migration d’applications vers une architecture microservices. Veiller à la qualité, la performance et la sécurité des développements. Collaboration Travailler en lien avec les équipes produit et DevOps. Contribuer à l’amélioration continue (tests, CI/CD, monitoring). Participer à la définition de la roadmap technique. Environnement technique Langages back-end : Java / Kotlin / .NET Core / Python (selon projets) Architecture : microservices, API REST, communication asynchrone (Kafka, RabbitMQ) Conteneurisation & orchestration : Docker, Kubernetes Cloud : AWS, GCP ou Azure (usage hybride possible) Bases de données : relationnelles (PostgreSQL, MySQL) et NoSQL (MongoDB, Redis) CI/CD : GitLab CI, Jenkins, ou équivalent Monitoring & observabilité : Prometheus, Grafana, ELK/EFK stack Méthodologies : Agile (Scrum / Kanban), DevOps, Infrastructure as Code (Terraform, Ansible) Collaboration : Git, Jira, Confluence, Slack/Teams

Offre d'emploi
Administrateur poste de travail H/F
Tu as entre 3 et 6 ans d’expérience dans un environnement tech varié et tu veux contribuer directement au bien-être des développeurs ? Ce poste est fait pour toi. L’objectif principal : améliorer la satisfaction des développeurs en veillant à ce qu’ils aient accès aux bons outils et ressources nécessaires pour bosser dans les meilleures conditions. Tu évolueras dans un environnement technique riche et stimulant : Windows, Red Hat Enterprise Linux, Java, .Net, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift, GCP , etc. Voici ce que tu feras au quotidien : Tu assisteras à la configuration des postes de travail , en veillant au respect des normes de sécurité. Tu t’assureras que les outils et frameworks nécessaires soient facilement accessibles. ♻️ Tu suivras le cycle de vie des packages : nouvelles versions, gestion de l’obsolescence, etc. Tu maintiendras à jour la documentation et les notes de version pour que tout soit clair et dispo. Tu animeras des groupes de travail avec les devs pour écouter leurs besoins et identifier les pistes d’amélioration. Tu coordonneras avec les équipes pour garantir bonne livraison des postes de travail. Tu feras une veille technologique sur les outils de développement pour toujours proposer mieux.

Offre d'emploi
Data Architecte Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
DATA SCIENTIST SENIOR H/F
Nous recherchons un(e) Data Scientist Senior H/F, Spécialiste LLM & Speech to Text RIVA. Missions principales Concevoir, développer et optimiser des modèles d'intelligence artificielle de type LLM (Large Language Models) pour répondre aux besoins de l'entreprise (NLP, génération de texte, résumés automatiques, etc.). Déployer, configurer et intégrer la solution NVIDIA RIVA pour des applications Speech-to-Text à grande échelle. Participer à l'intégration des modèles IA (LLMs & STT) dans l'architecture logicielle de la société. Veiller à la performance, à l'éthique et à la qualité des modèles déployés (précision, biais, robustesse). Former et accompagner les équipes Data/Tech sur les bonnes pratiques liées à l'utilisation des LLMs et des solutions de Speech-to-Text. Réaliser une veille technologique régulière sur l'IA générative, LLMs, Speech Recognition et solutions NVIDIA. Compétences techniques Maîtrise des LLMs (Llama, Mistral, GPT, etc.) : fine-tuning, déploiement local/cloud, prompts engineering, évaluation. Expérience confirmée avec NVIDIA RIVA (installation, déploiement de pipelines de speech-to-text, adaptation à des vocabulaires ou domaines spécifiques). Maîtrise de Python, frameworks ML/NLP (PyTorch, TensorFlow, Transformers, HuggingFace, spaCy, etc.). Expérience sur l'optimisation GPU et le déploiement de modèles IA performants. Maîtrise des API REST, microservices, architecture cloud (AWS, GCP, Azure). Compétences en gestion et traitement de grands corpus textuels et audio.

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Application qui permet d’évaluer n’importe quelle idée de startup
- Quel logiciel de facturation pour débutant AE
- Inscription france travail et ARCE
- TopCashback $50 Sign Up Bonus and Unlimited Referral Bonus $50
- TopCashBack Referral Offer: $50 Sign-Up Bonus {2025}
- TopCashBack Referral Offer: $50 Sign-Up Bonus
Les métiers et les missions en freelance pour Google Cloud Platform (GCP)
Ingénieur·e devops (Cloud)
L'Ingénieur·e devops (Cloud) utilise Google Cloud Platform pour automatiser le déploiement, la gestion des infrastructures et optimiser les processus de développement dans des environnements Cloud.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'Architecte Cloud conçoit des solutions d'infrastructure et d'architecture sur Google Cloud Platform, en veillant à ce que les applications soient sécurisées, scalables et optimisées pour le Cloud.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresIngénieur·e systèmes & réseaux
L'Ingénieur·e systèmes & réseaux gère les ressources et les services Google Cloud Platform, en configurant et en administrant les machines virtuelles, les bases de données, et les services Cloud associés.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresResponsable des infrastructures et de la production
Le/ La Responsable des infrastructures et de la production supervise la gestion des infrastructures Google Cloud Platform, en garantissant leur performance, leur sécurité et leur évolutivité, tout en assurant une intégration fluide avec les autres systèmes de l'entreprise.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres