Trouvez votre prochaine offre d’emploi ou de mission freelance Google Workspace

Votre recherche renvoie 117 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
Administrateur infrastructure/AIOPS

OCSI
Publiée le
Azure
Google Cloud Platform
Linux

1 an
30k-40k €
Orléans, Centre-Val de Loire

Vous aurez pour missions: D'assurer l'évangélisation de l'équipe technique sur les concepts de l'IAOPS et ses avantages. Installation et supervision de l'infrastructure de l'IAOPS. Connaissance approfondie des problématiques de production afin de mettre en place une solution de supervision adaptée. Compétences en gestion de projet (orienté PMO) pour coordonner les différentes étapes de mise en place. Connaissance des produits AGIRC/PROMETHEUS et Graphana pour l'aspect technique. Intégration de l'IA dans les processus de supervision

Freelance

Mission freelance
Ingénieur Cloud & DevSecOps

CyberTee
Publiée le
Ansible
Azure
Cloud

12 mois
100-650 €
Paris, France

Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Ingénieur Cloud & DevSecOps senior . Ses missions : déployer et migrer solutions Industrialiser et automatiser (CI/CD) Sécurité dans les déploiements (tests de code source) Aide à la définition d'architectures Cloud complexes avec un haut niveau de disponibilité et de sécurité Réaliser des mises en production Mise en œuvre de la sécurité opérationnelle Animation d'ateliers techniques Profil recherché : Vision Infrastructure as a Code » et CI/CD Bon niveau d'anglais Approches micro-services et containers Compétences techniques souhaitées Google Cloud Platform et/ou Microsoft Azure (Iaas, PaaS), Packer, Docker, Ansible, Kubernetes et CI/CD (Jenkins, GitLab, ...)

Freelance
CDI

Offre d'emploi
DataOps

K-Lagan
Publiée le
Google Cloud Platform
Terraform

1 an
10k-48k €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) DataOps , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients du secteur assurances, basé en Nouvelle-Aquitaine, Niort. 💻 Technologies : DevOps, CI/CD, Terraform, GCP. 😉 Conditions : 📝 CDI, ASAP. 📍 Niort, Nouvelle-Aquitaine (France). 💰 Rémunération et conditions intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et d'une société international en évolution ! 🎓 Formations personnalisées et suivies de carrières. 💻 Télétravail (mi-temps) 2-3 jours possible, selon intégration et projet client. 👌 Nous offrons : 🤝Contrat à durée indéterminée. 🤝Teambuilding. 🤝Rtt. 🤝Événements festifs organisés par l'entreprise (repas d'été, repas de Noël, journée de solidarité, BBQ, cafés technologiques …). 🤝Suivi régulier. 🤝Formation (technologie, langues, cours de formation, certifications...). Chez K-LAGAN & Kereon, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿

Freelance

Mission freelance
Data engineer PYTHON / GCP

LK TECHNOLOGY
Publiée le
Google Cloud Platform
Python

6 mois
100-450 €
Lille, Hauts-de-France

Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.

Freelance

Mission freelance
Chef de projet MOE Cloud GCP (H/F)

NORGAY
Publiée le
AS/400
Google Cloud Platform
Google Workspace

6 mois
530 €
Nantes, Pays de la Loire

Norgay Nantes recherche pour une mission chez un de ses clients un(e) Chef/fe de Projet MOE Cloud GCP. Dans le cadre de la modernisation des applications dans une ligne de produit, nous recherchons un Chef de Projet expérimenté pour nous accompagner notre client dans sa nouvellle initiative d'un projet GCP avec un ensemble d'applications. 🎯 Objectifs : ❒ Suivi de l'activité des personnes mobilisées, suivi des coûts, suivi de l'avancement / délai, suivi de la qualité. ❒ Intéraction avec l'ensemble des membres de l'équipe (Gestionnaire d'intégration, Développeurs, Testeurs, Agile Master,...) ❒ Reporting au Manager de l'équipe, composée : d'un Lead DEV, 2 Développeurs, 1 Testeur, 1 Gestionnaire d'Intégration (DevOps). Ces personnes seront également contributrices d'autres projets. La méthodologie retenue pour l'exécution du projet est la méthodologie Agile. 📑 Livrables : ❒ Reporting de projet classique hebdomadaire (suivi CQD, risques, avancement...) ❒ Fichier de suivi précis de l'avancement ❒ Sous 2 mois, livraison de 2 à 4 premières applications sur GCP. ❒ A deux mois, dossier de chiffrage pour la migration de l'ensemble des applications du patrimoine (~40 applications) s'appuyant sur l'expérience acquise 🚀 Environnement technique : Environnement technique : AS400 / GCP et GKE / WebApp JS (STRUT, ExtJS, Vue...) Environnement fonctionnel : métiers de l'approvisionnement Environnement bureautique : Google WorkplaceOutillage projet : Confluence, JIRA, TRISKELL Outillage technique : GIT, IntelliJ, Maven, Jenkins...

Freelance

Mission freelance
Data Engineer GCP Scala Spark

DATSUP
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
100-600 €
Île-de-France, France

Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
CI/CD
Docker
FastAPI

7 mois
100-480 €
Hauts-de-France, France

Dans le cadre de la plateforme de chaîne d’approvisionnement numérique du client, nous sommes responsables d’un service d’apprentissage automatique en production dans 6 BU pour l’instant. L’objectif de ce produit est d’optimiser les contrôles de réception des commandes en ciblant les colis / palettes à auditer à l’entrée des sites logistiques. Le projet est divisé en 2 modules techniques : une API qui délivre une décision de contrôle, basée sur notre algorithme, à tous les consommateurs du système informatique (WMS), un ensemble de pipelines de données provenant de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce magasin de fonctionnalités est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Nous recherchons un/une Data Engineer pour développer et maintenir ces deux modules. Responsabilités : En tant qu’ingénieur de données, vos responsabilités sont les suivantes : ● Travailler avec l’équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. ● Travailler avec des techniques Agile et DevOps et des approches de mise en œuvre dans la livraison ● Concevoir et documenter des modèles de données qui soutiennent les produits IA ● Orchestrez des pipelines de données ● Gérer et être responsable de la qualité des données ● Concevoir et documenter l’API qui prend en charge les produits IA ● Travailler en étroite collaboration avec les data scientists, les ingénieurs ML, DevOps/SRE

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
API
CI/CD
Docker

12 mois
100-500 €
Nord, France

API Python Data Pipeline DBT Documentation Compétences techniques Python - Expert - Impératif DBT - Confirmé - Impératif Github - Confirmé - Impératif Terraform - Confirmé - Souhaitable Anglais Professionnel (Impératif) The aim of this product is to optimise order reception checks by targeting the parcels/pallets to be audited at the logistics sites's entrance. The project is divided into 2 technical modules: - an API that delivers a control decision, based on our algorithm, to all consumers from ADEO IT system (WMS), - a set of data pipelines sourced from BigQuery datasets, supplying a feature store. This feature store is then used by our API and to train our predictive model. We are looking for a Data Engineer to develop and maintain these two modules. Responsibilities : As a data Engineer, your responsibilities are the following : ● Work with the dev team to design and implement modern, scalable data solutions using a range of new and emerging technologies. ● Work with Agile and DevOps techniques and implementation approaches in the delivery ● Design and document data models that support AI products ● Orchestrate data pipelines ● Manage & responsible of data quality ● Design and document API that supports AI products ● Work closely with data scientists, ML engineer, DevOps/SRE Qualifications : ● Experience working with GCP ● Experience in Python development ● Experience in API development. Good knowledge of FastAPI is required. ● Experience in Docker. ● Experience in data pipeline orchestration. Good knowledge of DBT. ● Experience in CI/CD. Knowledge of Github & Github actions is required. ● Fluency in english is required

Freelance

Mission freelance
SecOps

ESENCA (groupe Kali)
Publiée le
Ansible
Azure
Google Cloud Platform

3 mois
400-480 €
Lille, Hauts-de-France

En tant que SecOps, vous ferez partie des équipes IT qui ont pour mission de faire évoluer le modèle IT et bâtir les écosystèmes digitaux utiles et modulaires du groupe. En tant que SecOps DIT, vous intégrerez le domaine Hosting avec pour objectif de porter le développement du groupe en simplifiant la sécurité dans les services digitaux, mais également en proposant des solutions permettant de réduire la dette. Vous serez également en charge de traiter les incidents de sécurité, mais également de l'accompagnement des équipes Network, DevOps et Réseaux en apportant votre vision et votre expertise technique. Vos missions principales seront: - Mettre en place une solution permettant de réduire le nombre de faille de sécurité, - Participer à la construction de la roadmap des évolutions techniques en prenant en compte les contraintes et les opportunités, - Vous proposerez des solutions techniques en adéquation avec le besoin des équipes, - Vous participez au cadrage et à la rédaction des dossier d'architecture techniques, - Vous participez à l'industrialisation des opérations (prise en compte des incident rencontrés afin de continuellement améliorer la qualité de service), - Vous accompagnez la montée en compétences des équipes, - Vous participez au run transverse des solutions, - Vous participez au tests des solutions SOC Environnement technique: - Azure, GCP, Oracle Cloud, OVH - EDR - Proxy - Linux, Windows - Produits de monitoring - Astreintes

Freelance
CDI

Offre d'emploi
Product Owner Data

VISIAN
Publiée le
Google Cloud Platform
Microsoft Power BI
MySQL

1 an
10k-60k €
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory du client œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques. - Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: - Recueil du besoin auprès des utilisateurs - Entretiens individuels - Workshop - Ateliers de conception détaillée avec les différentes parties prenante - Définition des KPI pour la réalisation des dashboards - Déclinaisons des parcours et rédaction des users stories - Respect de la méthode INVEST - Utilisation de l'outil JIRA - Gestion du backlog de produits et définition des exigences du produit - Planification et priorisation des fonctionnalités du produit - Coordination des équipes de développement et suivi de l'avancement du projet - Acculturer les métiers autour des enjeux de la data et de l'IA - Validation et acceptation des fonctionnalités développées - Réalisation de la recette et des tests fonctionnels en collaboration avec le métier - Participation aux réunions de planification, de rétrospective et de revue de sprint - Production de supports de communication Environnement technique : PowerBI, Python, GCP et ses services, SQL, IA / NLP

Freelance

Mission freelance
Service Delivery Manager

LeHibou
Publiée le
Azure
Google Cloud Platform
SQL

1 an
500-700 €
Clichy, Île-de-France

Le client est le leader mondial des cosmétiques, avec des marques innovantes et accessibles pour tous. Au sein de l'équipe Consumer le client recherche une expertise SDM afin de gérer la maintenance en condition opérationnelle et les évolutions techniques et fonctionnelles d'une application permettant la planification et la gestion des dépenses média. Cette application est identifiée comme une des applications prioritaires du groupe. Utilisée dans plus de 40 pays et intégrée avec plus de 15 plateformes SAP. Elle est utilisée par plus de 3000 personnes (responsables média ou agences média). Elle est développée et développée par l'éditeur. Missions attendues : - Coordination avec le chef de projet/PO de l'application. En charge des évolutions et de la maintenance en condition opérationnelle d'une application fortement intégrée dans l'écosystème du client (ERP SAP ECC, SAP4HANA, Middleware, GCP, Azure...). - Responsable de l'organisation des travaux de maintenance, développements et évolutions du SI avec l'éditeur, les métiers et l'ensemble des applications connectées. Les évolutions peuvent être techniques (ex. optimisation des performances, mise en place d'API, gestion des archives) ou fonctionnelles (ex. mise en place SSO, changement de norme média, optimisation UX). Tâches à réaliser : * Assurer la coordination et l'orchestration des actions des différentes équipes * Animer les hebdomadaires de l'équipe et suivre le backlog d'activité * Echanger avec l'équipe de partenaires afin de comprendre et de challenger les solutions proposées. * définir et rédiger le cahier de tests pour un livrable technique et/ou fonctionnel de l'application * Organiser, contribuer et valider les tests avec les parties prenantes. * Suivre les KPI et mettre en place les actions nécessaires avec l'éditeur pour respecter les SLA * Gérer les tickets L3 (incidents, problèmes) avec l'équipe support de l'éditeur * Contribuer à l'identification des améliorations, solutions avec les Différentes équipes de l'écosystème (intégration, référentiels, SAP). Assurer le respect des règles de fonctionnement et d'utilisation du SI en conformité avec les normes et standards du métier et de l'entreprise, et en accord avec les contrats de service définis (interopérabilité, sécurité, coûts, qualité). Livrables : * Post mortem des incidents (analyse, statut, reporting) * Documentation de la solution, des améliorations, des développements (analyse d'impacts et évaluation de la charge) * Rédiger les comptes rendus des réunions * Définition des chronogrammes, tests, plan de coordination des différentes équipes * Assurer la documentation du projet avec l'éditeur et les équipes des autres solutions (spécifications, cahier de tests, chronogramme, release note, manuel utilisateurs, descriptions produits /services/composants, ...) * Gestion de la communication orale et écrite avec les utilisateurs (Product Owner, utilisateurs finaux dans les zones et les pays).

Freelance
CDI

Offre d'emploi
Consultant(e) Cloud Security - Risk Manager

AMD Blue
Publiée le
Cybersécurité
EBIOS RM
Google Cloud Platform

3 ans
60k-75k €
Paris, France

Contexte de la mission : Notre client a mis en place en 2020 une Cloud Platform Engineering afin de construire des fondations solides pour ses divers services digitaux. La plateforme cloud est transverse à l’ensemble des domaines et pays du groupe. Elle est constituée d’équipes centrées sur l’Expérience du Développeur, la mise à disposition de solutions techniques pour accélérer le développement et la stabilité/scalabilité de nos applications, les Réseaux, l’Observabilité, le FinOps. Ses objectifs principaux sont de rationaliser le catalogue de produits techniques référencés au sein du groupe et de fournir des services “clé en main” pour les équipes applicatives, qui pourront ainsi se concentrer sur le développement de features à valeur ajoutée. Le fait d’avoir moins d’outils va permettre de mettre plus de monde sur chacun et d’approfondir l’usage de ceux-ci. Il sera aussi plus simple de basculer d’équipe en équipe grâce à des compétences communes. Les missions sont : · Définir la stratégie d’analyse de risques de nos composants d’infrastructures · Accompagner les Security Engineers du domaine dans la réalisation d’analyse de risque basé sur Ebios RM (définition de la démarche incluant les livrables et les ateliers nécessaires, définition des templates d’analyses de risque, définition des plans de remédiations) · Proposer une solution de définition d’une risk heat map du domaine de la plateforme cloud basé sur les remontées des analyses de risques ainsi que des audits et test d’intrusion · Définir la stratégie DRPs des composants d’infrastructures (définir les étapes de réalisation d’un DRP global, définir une roadmap d’implémentation de cette stratégie, définir les templates de DRP et de test DRP) · Animer la planification trimestrielle du domaine afin d’identifier l’ensemble des actions de remédiations à charger par chacune des équipes · Construire et jouer un exercice de gestion de crise du domaine · Animez la définition et la communication des politiques de sécurité; · Proposer et animer un processus de gestion des incidents de sécurité; · Animer le suivie des actions de sécurité · Portez la sensibilisation sécurité, risque et conformité au sein de votre périmètre, et favorisez les bonnes pratiques au sein du collectif sécurité de votre BU;

Freelance

Mission freelance
DevSecOps Remediation Manager

Neotrust
Publiée le
.NET
Android studio
Ansible

12 mois
600-750 €
Hauts-de-France, France

Neotrust est une société d'innovation en matière de sécurité qui aide les dirigeants, CISO, CIO et CTO à mener à bien leur transformation en matière de sécurité et à intégrer la cyber innovation dans leur stratégie de sécurité à long terme. Un grand client avec une empreinte internationale recherche un DevSecOps Remediation Manager . Il/elle sera est chargé(e) de gérer et d'accompagner les équipes métiers dans la remédiation des vulnérabilités applicatives (AppSec) dans un contexte où la Cybersécurité est nommée comme une composante obligatoire du système d'information.

Freelance

Mission freelance
Chef de Projet Data Warehouse

KOLABS Group
Publiée le
Architecture
BI
Google Cloud Platform

12 mois
100-850 €
Paris, France

Nous recherchons un Chef de Projet Data Warehouse pour rejoindre notre client dans le cadre d'un projet SIRH ambitieux visant à implémenter une data platform utilisant Power BI. Ce projet a pour objectif de permettre une communication fluide entre différentes entités, en offrant une vision globale et intégrée des données RH (performance, rémunération, recrutement,..) à travers des dashboards communs. Vos missions : Identifier et prioriser les sujets techniques avec les parties prenantes du projet Encadrer les aspects techniques et architecturaux, en assurant l'intégration et le transfert de données avec les équipes IT Animer des ateliers avec les parties prenantes métiers, IT, et la squad agile Suivre les développements pour garantir leur alignement avec les besoins Agir en tant que référent IT pour le projet, couvrant l'écosystème SIRH et les autres projets au sein de l'équipe IT RH

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

117 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous