L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 784 résultats.
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
Product Owner / Business Analyst Google Workspace et Messagerie
SMH PARTICIPATION
Publiée le
Agile Scrum
AWS Cloud
Cloud
1 an
100-490 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son environnement de travail numérique, nous recherchons un(e) Product Owner / Business Analyst pour intervenir sur le périmètre Google Workspace et Messagerie . Vous serez au cœur de la transformation digitale, en charge de : Porter la vision produit et définir la roadmap en alignement avec la stratégie globale Piloter et prioriser le backlog produit (recueil des besoins, rédaction des User Stories, critères d’acceptation) Assurer la coordination de l’équipe technique et animer les rituels Agile Faire le lien entre les équipes métiers et IT Vos principales responsabilités : 🔹 Pilotage produit (PO) Définition et gestion de la roadmap Priorisation des besoins et gestion du backlog Suivi de la performance produit (KPIs, vélocité…) 🔹 Analyse métier (BA) Cadrage des besoins et analyse des processus métiers Proposition de solutions innovantes (automatisation, outils collaboratifs, data) Intégration des enjeux de sécurité et conformité 🔹 Conduite du changement Accompagnement des utilisateurs dans l’adoption des nouveaux outils Animation d’ateliers, formations et communautés utilisateurs Mise en place de stratégies de déploiement et d’adoption Sensibilisation aux bonnes pratiques (RSE, sobriété numérique, usage responsable) Livrables attendus Roadmap produit et backlog priorisé User Stories et spécifications fonctionnelles Tableaux de bord de suivi (KPIs, adoption, performance) Plans de conduite du changement et supports utilisateurs
Offre d'emploi
Développeur Java/Spring - Lyon (H/F)
EASY PARTNER
Publiée le
Java
Springboot
12 mois
42k-48k €
300-360 €
69009, Lyon, Auvergne-Rhône-Alpes
Notre client est une structure IT internationale intervenant pour plusieurs opérateurs télécom européens et internationaux. Les équipes, réparties sur plusieurs sites en France et à l’étranger, collaborent sur des projets de transformation d’envergure autour des domaines BSS : CRM, e-commerce, facturation, portails self-service, ERP. Vous rejoignez une équipe agile full-stack (Product Owner, Scrum Master, Technical Leader, développeurs et QA) intervenant sur une feature dédiée, avec une forte autonomie de conception jusqu’à la mise en production. L’environnement valorise la qualité logicielle, le Software Craftsmanship et les bonnes pratiques de développement (TDD, DDD, SOLID, KISS). Missions principales Participer à l’ensemble du cycle de vie applicatif : conception, développement, tests, mise en production Développer des microservices robustes et scalables en environnement Spring Boot Contribuer aux évolutions des systèmes BSS (CRM, billing, e-shop, portail utilisateur…) Modéliser et implémenter des processus métiers complexes (FSM, sagas, pollers) Collaborer étroitement avec le Product Manager, l’Architecte et les équipes QA Participer aux rituels agiles et aux sessions techniques (Kata, code review) Missions secondaires Maintenir et enrichir la documentation technique Contribuer à l’amélioration continue des pratiques de développement Participer progressivement à l’exploitation et au maintien en conditions opérationnelles des applications Interagir directement avec les équipes métier / commanditaires Stack technique Back-end : Java; Spring Boot; JPA; RabbitMQ DevOps & Déploiement : GitLab CI/CD; Kubernetes (K8s); Helm; Lens Outils : GitLab; JIRA; Confluence; Jfrog; IntelliJ (Ultimate)
Offre d'emploi
Développeur Full Stack Java / Angular
Deodis
Publiée le
Angular
Java
Spring
1 an
40k-45k €
400-440 €
Île-de-France, France
Nous recherchons un(e) Développeur(se) Full Stack Java / Angular senior pour intervenir sur des applications stratégiques au sein d’un grand groupe bancaire. Vous participerez à la conception et au développement d’évolutions applicatives, en lien étroit avec les équipes métier et techniques. Vos missions couvriront l’analyse des besoins, la rédaction de spécifications, le développement backend (Java, Spring Boot) et frontend (Angular), la mise en place de tests, ainsi que la gestion des mises en production via des outils CI/CD (GitLab, Jenkins). Vous interviendrez également sur la gestion des incidents, l’amélioration continue des applications et le développement d’API exposées. Vous évoluerez dans un environnement technique moderne (Java 8, Spring, Angular, Kubernetes, Oracle) avec une forte exigence de qualité et de performance.
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Offre d'emploi
Lead Dev
KUBE Partners S.L. / Pixie Services
Publiée le
Docker
Google Cloud Platform (GCP)
Java
Lille, Hauts-de-France
Ce que nous offrons : - La chance de travailler avec des technologies de pointe comme Java, JavaScript, Node.js, React, Vue.js, Kubernetes, Docker, et bien d'autres. - Un rôle de leader au sein d'une équipe dynamique et créative, avec la possibilité de façonner l'avenir de la technologie. - Un poste basé dans la métropole lilloise, un écosystème vibrant pour les passionnés de tech. Missions pour le Lead Developer : - Pilotage technique des projets, de la conception à la mise en production, en assurant la qualité, la performance et la sécurité des solutions développées. - Management d'une équipe de développeurs, en guidant leur montée en compétences et en promouvant les meilleures pratiques de développement. - Collaboration étroite avec les équipes produit, design et QA pour assurer l'alignement et l'excellence dans la livraison des projets. - Veille technologique continue pour intégrer de nouvelles technologies et méthodologies qui pourraient bénéficier aux projets et à l'équipe. - Développement et maintien d'une architecture scalable et performante, en utilisant Docker et Kubernetes pour l'orchestration des conteneurs.
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Mission freelance
251160/Développeur Python / GCP
WorldWide People
Publiée le
Google Cloud Platform (GCP)
Python
6 mois
Paris, France
Développeur Python / GCP Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe. Contexte / Objectifs : Mise en place du projet "Risques Climatiques & Physiques" une solution visant à ingérer, agréger et exposer des données de sources multiples afin de produire les rapports Métier sur le scope de la surveillance du risque de crédit. La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Une expérience dans le domaine du Risques de crédit est appréciée. Le projet étant stratégique et à forte visibilité, les critères d'expertises techniques décrites dans cet Appel d'Offre sont à respecter impérativement. Objectifs et livrables Expertises spécifiques : Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Excellente maitrise : BigQuery, Dataproc, Composer, Cloud Functions, Cloud Run Jobs, et GCS. - Bonne maitrise de la partie DevOps : XLD, Terraforme, jenkins - Bonne communication, autonomie et fluidité du travail en équipe.
Mission freelance
Devops Administrateur / SRE Kubernetes GCP Sénior 530 e /j
BI SOLUTIONS
Publiée le
Google Cloud Platform (GCP)
Kubernetes
2 ans
400-530 €
Île-de-France, France
Devops Administrateur / SRE Kubernetes GCP Sénior 530 e /j ● Maîtriser les technologies cloud GCP (Google Cloud Platform) incluant les services tels que Kubernetes, Cloud Functions, Pub/Sub, PostgreSQL, ArgoCD, KeyCloak, HashiCorp Vault, ● SonarQube CE & EE ● Développer et maintenir des pipelines de données robustes et performants ● Posséder une expertise en développement avec les langages GO ou Python ● Être familier avec les concepts de CI/CD (Intégration Continue et Livraison Continue) et les outils associés comme GitLab CICD ● Avoir une connaissance des bases de données relationnelles, notamment PostgreSQL ● Être capable de gérer et d'optimiser l'infrastructure Cloud GCP ● Maîtriser Helm File pour la gestion et la configuration des déploiements Helm dans Kubernetes. ● Avoir une bonne compréhension des concepts de sécurité et de conformité dans un environnement cloud ● Posséder des compétences en scripting et en automatisation pour la gestion des tâches ● Avoir une excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. 530 e par jour
Mission freelance
Stream Lead IT Intégration
STHREE SAS pour COMPUTER FUTURES
Publiée le
Google Cloud Platform (GCP)
Informatique
6 mois
Île-de-France, France
Bonjour, Je suis à la recherche d’un Stream Lead IT Intégration: Missions principales : Ø Coordonner le recueil des besoins fonctionnels et techniques d’interfaçage entre ePALMS et les applications legacy. Ø Garantir la cohérence des flux de données avec l’architecture SI globale. Ø Piloter l’implémentation de bout en bout des interfaces. Ø Assurer le pilotage des partenaires / éditeurs externes. Ø Gérer les interdépendances avec les autres streams du programme. Ø Suivre les plannings, livrables, risques et points de décision. Ø Mettre en œuvre la stratégie complète de reprise de données : o mapping source → cible, o règles de transformation, o nettoyage et validation des données historiques, Ø Travailler en coordination étroite avec le Data Stream métier Ø Définir et piloter la stratégie de tests : o use cases, o données de test, o validation des flux et de la migration
Offre d'emploi
Junior Cloud Architect / Avant-Vente (AWS & Google Cloud)
SCC France SAS
Publiée le
AWS Cloud
92000, Nanterre, Île-de-France
Architecture & Avant-vente (avec encadrement Senior) Participer à la conception d’architectures Cloud (AWS, GCP) sous la supervision d’un architecte senior. Contribuer à la rédaction des livrables d’avant-vente : High Level Design (HLD), comparatifs techniques, mémoires techniques. Réaliser des chiffrages, dimensionnements et estimations de coûts via les abaques internes et les calculateurs AWS / GCP. Assister aux soutenances clients, comités techniques et réunions avant-vente, avec prise de parole progressive. Produire des architectures de référence et des schémas techniques (, Lucidchart). Support aux offres de services Contribuer à l’enrichissement des offres cloud (fiches offres, templates, battlecards). Réaliser des benchmarks et comparatifs entre les services AWS / GCP. Participer aux réponses à appels d’offres sur les volets techniques. Aider à la préparation de démos et de Proof of Concepts (PoC) dans le cadre d’opportunités commerciales. Montée en compétences & veille technologique Préparer et obtenir les certifications AWS & GCP selon le plan de formation interne. Participer aux formations internes, aux sessions partenaires et aux programmes de formations hyperscalers. Assurer une veille active sur les nouveaux services cloud, tendances du marché et bonnes pratiques. Contribuer au partage de connaissances au sein de la Cloud Practice. Support technique interne Apporter un support aux équipes Sales et Solution Architects sur les questions cloud courantes. Répondre aux sollicitations internes (sizing, pricing, éligibilité des services AWS / GCP). Activités secondaires Participer aux webinaires, événements hyperscalers et bootcamps partenaires. Contribuer à la documentation interne (runbooks, retours d’expérience, templates). Assurer un reporting régulier auprès du Practice Lead ou du SA Senior référent.
Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
PROPULSE IT
Publiée le
Azure
Cloud
Infrastructure
24 mois
350-700 €
Paris, France
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Offre d'emploi
Développeur backend Java F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Gitlab
Java
Spring Batch
Orange Lyon Lumière, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
ADMINISTRATEUR SYSTÈME CLOUD & RÉSEAUX H/F : AZURE, GCP
SKILL EXPERT
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)
1 an
400-450 €
Hauts-de-Seine, France
Missions principales : Assurer le support utilisateurs de Niveau 2 : diagnostic, résolution des incidents, et escalade maîtrisée vers les équipes spécialisées. Administrer et exploiter les environnements Cloud et IT pour garantir leur bon fonctionnement. Gérer et suivre les tickets (incidents, demandes, changements) via les outils ITSM. Participer activement à l’amélioration continue des processus IT et à la mise à jour de la documentation technique. Collaborer étroitement avec les équipes sécurité et projets pour assurer la cohérence des actions.
Mission freelance
INGENIEUR DevOps IA H/F
HAYS France
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
8 mois
400-550 €
Yvelines, France
Missions Le pôle conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. Le poste s'inscrit au sein de l'équipe GenAI du domaine d’expertise Data & IA, avec pour mission de concevoir des offres IA à l'échelle dans des environnements Cloud public ou privé. PÉRIMÈTRE D'INTERVENTION Le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Le candidat évoluera dans un environnement technique complexe, distribué, sécurisé et hautement disponible, au sein d'une équipe dédiée aux produits et services d'intelligence artificielle.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7784 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois