Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 390 résultats.
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance

Mission freelance
DataOps / Ops GCP

Publiée le
Ansible
BigQuery
Google Cloud Platform (GCP)

1 an
400-500 €
Paris, France
Télétravail partiel
Notre client, recherche un Ingénieur DataOps / Ops GCP confirmé (H/F) dans le cadre d'une longue mission. Renforcement de l’équipe Data dans le cadre d’un fort accroissement de la charge projet. Le consultant interviendra sur l’ensemble des environnements GCP en lien avec les équipes Architecture, Infra et Études. - Exploitation et mise en production des projets sur Google Cloud Platform (GCP) - Diagnostic, résolution d’incidents et suivi opérationnel quotidien - Définition et pilotage de plans d’actions pour améliorer la qualité de service, sécuriser la production et optimiser la productivité - Amélioration continue des performances des environnements GCP - Participation aux projets techniques et métiers : mise en place d’environnements, déploiements, automatisations - Contribution à l’industrialisation et à l’évolution des outils d’automatisation - Collaboration régulière avec les équipes Architecture - Rôle orienté delivery projet (pas de RUN centré)
CDI

Offre d'emploi
Ingénieur Support N3/N4

Publiée le
Google Cloud Platform (GCP)
Linux
OS Windows

40k-50k €
Lille, Hauts-de-France
Télétravail partiel
🌟 Pixie Services cherche à renforcer son équipe avec un Ingénieur Support N3/N4 expérimenté ! 🌟 Rejoignez notre équipe dynamique dans la métropole lilloise et devenez un pilier de notre support technique de haut niveau. À propos : Au cœur de la métropole lilloise , Pixie Services incarne l'innovation et l'excellence dans le domaine des solutions technologiques. Nous nous engageons à fournir un environnement de travail stimulant où chaque membre de l'équipe peut s'épanouir et contribuer activement à notre succès commun. 🔥 Ce que nous offrons : Une opportunité unique de travailler sur des problématiques techniques complexes et variées, apportant des solutions innovantes. Un rôle crucial au sein d'une équipe de support réputée pour sa réactivité et son expertise technique. Une position basée dans la vibrant métropole lilloise , au sein d'une entreprise pionnière dans son domaine. 🔧 Missions pour l'Ingénieur Support N3/N4 : Résolution de problèmes complexes : Prendre en charge et résoudre les incidents techniques de niveau 3 et 4, nécessitant une expertise approfondie. Amélioration continue : Contribuer à l'amélioration des processus et des outils de support pour optimiser la qualité et l'efficacité du service. Collaboration technique : Travailler en étroite collaboration avec les équipes d'ingénierie et de développement pour identifier et résoudre les problématiques systèmes et réseaux. Documentation et formation : Rédiger des documentations techniques détaillées et former les équipes de support de niveaux inférieurs pour améliorer leurs compétences. Veille technologique : Se tenir informé des dernières tendances et technologies pour anticiper les problèmes et proposer des solutions innovantes.
Freelance

Mission freelance
Un lead dev front Vue JS Sur Lyon.

Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript

6 mois
100-350 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients ,Un lead dev front Vue JS Sur Lyon. descriptif: un lead dev front Vue JS pour un projet de refonte en capacité d'intervenir aussi sur du back en Node.JS / typescript. Idéalement a déjà travaillé sur le cloud GCP. capacité d'orienter une équipe de dév et d'apporter son expertise Dispose d'une vision métier Démarrage souhaité en Janvier Télé travail à hauteur de 2 jours / semaine pouvant aller jusqu'à 3 selon la localisation du consultant. Almatek recherche pour l'un de ses clients ,Un lead dev front Vue JS Sur Lyon. descriptif: un lead dev front Vue JS pour un projet de refonte en capacité d'intervenir aussi sur du back en Node.JS / typescript. Idéalement a déjà travaillé sur le cloud GCP. capacité d'orienter une équipe de dév et d'apporter son expertise Dispose d'une vision métier Démarrage souhaité en Janvier Télé travail à hauteur de 2 jours / semaine pouvant aller jusqu'à 3 selon la localisation du consultant.
CDI
Freelance
CDD

Offre d'emploi
ML Ops

Publiée le
BigQuery
Google Cloud Platform (GCP)
MLOps

12 mois
40k-59k €
400-600 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Ops pour une grande entreprise internationale ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience en tant que ML Ops/Data Scientist ; tu maîtrises MLflow ou outils similaires ; tu as déjà travaillé dans un environnement GCP/BigQuery ; tu as un anglais professionnel. Tes missions … ✨ Définir et mettre en œuvre un cadre de bonnes pratiques ML Engineering (tests, qualité, versioning, monitoring…) ✨ Concevoir, construire et maintenir des modèles de Machine Learning en lien avec les Data Scientists ✨ Industrialiser les modèles via des pipelines de ré-entraînement, d’évaluation et de déploiement automatisés ✨ Contribuer à la roadmap produit ML : arbitrages techniques, exploration technologique, priorisation ✨ Développer des systèmes de monitoring en temps réel pour la supervision des modèles et des flux de données ✨ Enrichir la plateforme ML avec de nouveaux outils et composants (frameworks, patterns, modules d'observabilité…) ✨ Participer activement à la vie agile de l’équipe (rituels, pair programming, veille technologique) ✨ Porter les bonnes pratiques ML en transverse auprès des autres entités du groupe, en France et à l’international ✨ Accompagner les Data Scientists dans la montée en maturité technique, notamment sur les pratiques de software engineering ✨ Garantir la qualité du code produit et participer à son amélioration continue TT: 2 jours par semaine. Démarrage: rapide. Relation: CDI ou freelance. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance
CDI

Offre d'emploi
Lead Développeur Fullstack Vue.js /Node.js (H/F)

Publiée le
Google Cloud Platform (GCP)
Node.js
TypeScript

3 mois
40k-45k €
100-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte Dans le cadre d’un projet de refonte complète d’une application stratégique, nous recherchons un.e Lead Développeur.euse Front spécialisé.e Vue.js, disposant également de compétences solides en back-end Node.js / TypeScript. Le.la consultant.e interviendra au sein d’une équipe agile et jouera un rôle central dans l’orientation technique et la structuration du delivery. Missions Piloter les choix techniques sur la partie front Vue.js et contribuer aux développements. Intervenir sur le back-end (Node.js / TypeScript) pour garantir la cohérence globale de l’architecture. Participer à la conception, au design technique et à la revue de code. Encadrer et orienter une équipe de développeurs : bonnes pratiques, performance, qualité de code. Collaborer avec les équipes produit afin d’apporter une vision métier et challenger les besoins. Contribuer à la mise en place de pipelines, bonnes pratiques CI/CD et outillage du projet. Accompagner la migration et l’optimisation sur l’infrastructure cloud (GCP).
Freelance
CDI

Offre d'emploi
Consultant GCP - Accompagnement Cloud

Publiée le
Google Cloud Platform (GCP)
Méthode Agile

2 ans
Paris, France
Télétravail partiel
Responsabilités principales 1. Accompagnement des projets dans GCP Faciliter l’adoption du cloud par les équipes projets. Aider les équipes à structurer leurs besoins techniques et fonctionnels pour l’intégration dans la LZ. S’assurer de la bonne préparation de leurs environnements et prérequis. 2. Animation & coordination Animer les réunions d’avancement, ateliers de cadrage, résolutions de blocages. Synchroniser les parties prenantes techniques et métiers. Prioriser les actions et organiser les chantiers. 3. Suivi opérationnel et pilotage Suivre les actions, dépendances, blocages, ordonnancement, charges. Maintenir un tableau de bord projet clair, à jour, structuré. Assurer une visibilité transverse sur les risques et points ouverts. 4. Support technique Participer aux ateliers techniques, clarifier les solutions possibles, orienter les choix. S’assurer que les projets respectent les standards sécurité, réseau, IAM, supervision. 5. Amélioration continue Produire bilans, synthèses d’itération, plans d’amélioration. Capitaliser sur les retours d’expérience.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance
CDI

Offre d'emploi
Administrateur de bases de données H/F

Publiée le
Google Cloud Platform (GCP)
Oracle
PostgreSQL

1 an
40k-50k €
450-550 €
Nancy, Grand Est
Nous recherchons pour l’un de nos clients un Administrateur base de données H/F à Nancy pour une mission démarrant dès que possible. Vous gérer et administrer les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Vous participez à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise Vos missions : · L’administration, la sauvegarde, la restauration et l’optimisation de bases de données et plateformes data dans le respect des processus client on premise et cloud. · La gestion des incidents et participe à la résolution des problèmes · Installation, configuration, maintenance et évolution des plateformes (Greenplum, couchbase et elasticsearch, etc) · Maintien en conditions opérationnelles des plateformes · Suivi et amélioration des performances (mémoire, disques, index, requêtes), · Stratégies de sauvegarde, restauration et supervision · La gestion des accès et création des comptes autorisés à se connecter aux plateformes · De la veille technologique · La gestion documentaire du périmètre · Astreinte Les livrables attendus sont : · Scripts · Schémas techniques · Documentation technique
Freelance

Mission freelance
Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 - Janvier

Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

1 an
450-500 €
Nanterre, Île-de-France
Télétravail partiel
🚀 Data BI Analyst (Power BI / GCP / ServiceNow) - Anglophone - 92 🚀 𝗗𝗲́𝗺𝗮𝗿𝗿𝗮𝗴𝗲 𝗝𝗮𝗻𝘃𝗶𝗲𝗿 - 𝗧𝗲𝗺𝗽𝘀 𝗽𝗹𝗲𝗶𝗻 - 𝟯 𝗮𝗻𝘀 𝗱𝗲 𝗺𝗶𝘀𝘀𝗶𝗼𝗻 𝟵𝟮 - 𝟯 𝗷𝗼𝘂𝗿𝘀 𝘀𝘂𝗿 𝘀𝗶𝘁𝗲 𝗽𝗮𝗿 𝘀𝗲𝗺𝗮𝗶𝗻𝗲 Je recherche un BI Analyst pour rejoindre un grand programme de transformation au sein d’un groupe international. Objectif : transformer des datasets complexes en dashboards Power BI “pixel-perfect”, clairs, esthétiques et actionnables pour le pilotage projet & programme. 🔧 Environnement : Power BI • GCP • BigQuery • ServiceNow (ITBM/SPM) 🎯 𝗥𝗲𝘀𝗽𝗼𝗻𝘀𝗮𝗯𝗶𝗹𝗶𝘁𝗲́𝘀 Concevoir des dashboards Power BI avancés (UX, storytelling, interactions) Interroger & analyser les données dans BigQuery Exploiter en profondeur les données ServiceNow (must-have) Collaborer avec le Data Engineer & le Business Analyst Garantir une qualité de données irréprochable #Freelance #DataAnalyst #PowerBI #GCP #BigQuery #ServiceNow #BI
Freelance

Mission freelance
Architecte Data GCP

Publiée le
Architecture
Google Cloud Platform (GCP)
Python

3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Freelance

Mission freelance
Chef de projet Data

Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Freelance

Mission freelance
Data Scientist Confirmé / sénior - Temps plein

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Paris, France
Télétravail partiel
Nous recherchons un·e Data Scientist confirmé·e / senior pour rejoindre une squad Supply Chain composée de 5 Data Scientists. L’objectif est de capitaliser sur des solutions IA déjà existantes et d’étendre leur périmètre afin de répondre à de nouveaux enjeux métiers. Missions principales 💡 Collection Structure & Assortment Concevoir des outils d’analyse avancée et/ou de simulation pour évaluer l’assortiment actuel (showroom, catalogue). Déterminer des quantités d’achat optimales permettant de couvrir les besoins du marché et d’atteindre les objectifs de ventes. 📉 Depletion Path Développer des modèles d’analyse pour identifier les produits à retirer progressivement de l’assortiment retail et définir les canaux de sortie adéquats. Analyser l’historique des assortiments afin de démontrer la possibilité de générer un revenu similaire avec un nombre réduit de références (SKUs). 🔀 Stock Rebalancing Concevoir des approches algorithmiques permettant de relocaliser les stocks sous-performants vers des points de vente à fort potentiel de vente. Responsabilités Explorer, analyser et modéliser des données complexes à fort volume. Construire des pipelines de données robustes et industrialisés. Améliorer et enrichir les briques IA existantes afin de traiter de nouveaux cas d’usage. Interagir avec les équipes métiers pour comprendre les enjeux opérationnels et proposer des solutions pragmatiques. Documenter et partager les résultats de manière claire, structurée et pédagogique.
Freelance

Mission freelance
Data Engineer Air France : Tests de Non-Régression

Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux

3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Freelance

Mission freelance
Data engineer senior H/F

Publiée le
Google Cloud Platform (GCP)
HFSQL
Python

2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
390 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous