L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 193 résultats.
Mission freelance
Chef de Projet Infrastructure
Publiée le
Google Cloud Platform (GCP)
Infrastructure
Linux
3 mois
Lille, Hauts-de-France
Télétravail partiel
Infrastructure – Déploiement EDR CrowdStrike La cybersécurité vous passionne et vous excellez dans la gestion de projets techniques d’envergure ? Rejoignez-nous en tant que Chef de Projet Technique Sénior Infrastructure pour orchestrer le déploiement de la solution EDR CrowdStrike sur l’ensemble de notre parc de serveurs. Ce projet stratégique, actuellement en phase de déploiement, vise à renforcer la sécurité de nos infrastructures hybrides (on-premise et cloud) et requiert un leadership technique ainsi qu’une autonomie exemplaires de la part du chef de projet. Contexte Dans un contexte de renforcement de la cybersécurité de l’entreprise, nous déployons la solution d’Endpoint Detection & Response (EDR) CrowdStrike sur l’ensemble de nos serveurs. L’environnement technique comprend des serveurs Windows et Unix/Linux répartis entre un datacenter on-premise et le cloud Google Cloud Platform (GCP) . Le projet, actuellement en phase de déploiement, est international , impliquant des entités basées dans plusieurs régions du globe. Le chef de projet devra à la fois être opérationnel ("doer") pour assurer la mise en place technique standard (configuration de la console EDR, rédaction et test de scripts PowerShell/Bash), et coordinateur ("faire faire") pour piloter les responsables des différents streams techniques (serveurs Windows, Linux, caisses, etc.) dans le déploiement de leurs agents. Missions principales En tant que Chef de Projet Technique Sénior en charge de ce programme, vos responsabilités incluront : Pilotage du projet EDR : assurer le déploiement de la solution CrowdStrike sur l’ensemble des serveurs de l’entreprise, à l’échelle internationale. Opérationnel technique : assurer la configuration standard de la console CrowdStrike, la création et l’exécution de scripts PowerShell et Bash pour l’automatisation du déploiement. Animation des streams leaders : animer et challenger les responsables des différents domaines techniques (serveurs Linux, Windows, caisses, workstations) pour s’assurer de la bonne exécution du déploiement : respect du planning, traitement des problèmes techniques, conformité avec les processus internes. Coordination transverse : garantir l’alignement entre les parties prenantes internes (Infrastructure, Sécurité, Réseau, etc.) sur les objectifs et priorités du projet. Gestion des risques et planning : identifier les risques et dépendances, ajuster le planning en fonction des contraintes locales ou techniques, et s’assurer de la tenue des jalons. Suivi et reporting : assurer un reporting clair et fréquent vers les sponsors et parties prenantes, avec animation des comités de pilotage et partage des indicateurs clés.
Mission freelance
Expert DevOps GCP
Publiée le
DevOps
1 an
550-750 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients dans le secteur pharmaceutique, je suis à la recherche d'un expert DevOps GCP. La mission principale : Gérer la sortie d'infra' groupe puis la recréer chez le client. > Gitlab : - Administration avancée Gitlab (SaaS - hybride). (Niveau sénior +). - Maîtrise des configurations/templates CICD sur Gitlab (Niveau Expert mandatory). > GCP : - Connaissances GCP (IAM, GKE, VPC, Security ...) (Niveau sénior dans l'idéal) - Maîtrise du service GKE (Niveau avancé)
Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport
Publiée le
Architecture
Big Data
3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Offre d'emploi
Architecte Solution
Publiée le
API
AWS Cloud
ETL (Extract-transform-load)
1 an
La Défense, Île-de-France
Télétravail partiel
Contexte de mission Renfort ponctuel suite au changement de poste de l’Architecte Solution Integration. Participation à un programme stratégique international visant à consolider et moderniser les solutions d’intégration data & applicatives du groupe. L’Architecte Solution Integration interviendra dans le cadre du programme stratégique de globalisation, rationalisation et modernisation des solutions d’intégration du groupe. Sous la responsabilité du Directeur Integration Platform et du manager de programme, il aura pour missions : Rôle & Responsabilités : Analyse & Cadrage Architecture & Design Authority Documentation & Gouvernance Innovation & Expertise
Mission freelance
Ingénieur Devops
Publiée le
DevOps
Google Cloud Platform (GCP)
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Bonjour, Dans le cadre d'une recherche pour un client au poste d'ingénieur Devops, nous recherchons un(e) consultant disponible ASAP. Intégrer de nouvelles applications dans le cadre de projets métiers. Piloter les projets OPS de bout en bout (étude, planification, réalisation, coordination). Participer à la mise en œuvre de nouvelles infrastructures et migrations (cloud, outils, applicatifs). Assurer la coordination entre les équipes Cloud, Systèmes, Réseaux, DBA et Sécurité. Évaluer et piloter les charges, budgets et risques projet. Rédiger et maintenir la documentation technique et projet (comités d’architecture, livrables OPS, etc.). Contribuer à la mise en conformité (sécurité, DORA, cybersécurité). Côté Run : Garantir la stabilité, la performance et la disponibilité des applications en production. Réaliser les opérations techniques nécessaires aux évolutions, corrections et incidents. Assurer le suivi des problèmes et la mise en place de correctifs durables. Contribuer à la gestion des obsolescences techniques. Améliorer en continu les processus d’exploitation pour réduire les incidents. Suivre les indicateurs de performance (Dynatrace, Kibana, Grafana) et établir un reporting régulier. Coordonner les opérations planifiées et les contributeurs techniques.
Offre d'emploi
Architecte / Tech Lead IA
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
40k-65k €
Paris, France
Télétravail partiel
Redlab cherche un Leader technique de l’Usine IA de son client Il définit l’architecture des solutions IA/ML/LLM, organise les équipes techniques, garantit sécurité, performance et conformité (RGPD, AI Act). Missions clés Piloter les équipes techniques IA (développeurs, data scientists, ingénieurs). Concevoir des architectures scalables (microservices, event-driven). Encadrer l’industrialisation IA/ML/LLM (MLOps, GPU, cloud). Optimiser les processus métiers (AS-IS / TO-BE, BPMN). Coordonner les parties prenantes (métier, DSI, RSSI).
Offre d'emploi
Développeur Full-Stack
Publiée le
Angular
Google Cloud Platform (GCP)
Java
38k-45k €
Lille, Hauts-de-France
Télétravail partiel
Ce que nous offrons : - La chance de travailler avec des technologies de pointe telles que Java, Javascript, Node.js, Vue.js, Spring, React, CI/CD, Kafka, Kubernetes, Cerberus, GCP, et bien plus encore. - Un rôle crucial dans une équipe qui valorise l'innovation, l'apprentissage continu et le développement professionnel. - Une position basée dans la métropole lilloise, au coeur d'une communauté technologique dynamique. Missions pour le Développeur Fullstack : - Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. - Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP. - Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. - Participation active à la phase de conception produit, en apportant des idées innovantes et en travaillant sur des prototypes. - Gestion et mise en oeuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. - Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.
Mission freelance
228728/Architecte GCP - Île de France
Publiée le
Google Cloud Platform (GCP)
3 mois
Île-de-France, France
Télétravail partiel
Architecte GCP - Île de France Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). En tant qu’expert Google Cloud Platform (GCP), l'expert accompagnera l’équipe projet sur l’ensemble des phases – conception, réalisation et déploiement – afin de garantir l’atteinte des objectifs stratégiques : Centraliser, fiabiliser et standardiser les données RH essentielles. Faciliter la gestion des processus et ressources humaines. Améliorer la qualité et la pertinence des analyses RH et des reportings. Assurer une cohérence et une intégrité des données à l’échelle du groupe. Méthodologie projet Le projet est conduit selon une approche agile, privilégiant : L’adaptabilité face aux besoins métier, La collaboration transverse, L’amélioration continue. 👉 Une expérience dans un contexte agile (Scrum, SAFe ou équivalent) est donc un atout recherché. Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). Compétences complémentaires : Power BI : visualisation et analyse des données RH. Data engineering / ETL : conception et optimisation de flux de données. Sensibilité à la qualité et gouvernance des données . Profil recherché Expérience confirmée sur des projets de migration, intégration ou fiabilisation de données sous GCP. Capacité à accompagner les équipes projet dans un rôle à la fois technique et conseil . Bon relationnel et capacité à vulgariser les aspects techniques auprès des métiers RH. Objectifs et livrables Architecture GCP qui répond aux attente du contexte Livrables techniques : DAT, DEX, etc. Accompagnement des développements Compétences demandées Compétences Niveau de compétence Google Cloud Composer Expert Google Cloud Storage Expert BIGQUERY Expert Apache Airflow Expert
Offre d'emploi
TECH LEAD IA
Publiée le
Google Cloud Platform (GCP)
MLOps
Vertex AI
6 mois
40k-68k €
500-730 €
Paris, France
Je recherche pour un de mes clients dans le domaine de la banque/Assurance un techLead IA : Mission Définir les standards, frameworks et guidelines pour la mise en production des modèles IA/ML sur GCP. Concevoir et superviser la mise en place de pipelines MLOps automatisés et scalables (Vertex AI, Cloud Functions, BigQuery, etc.). Encadrer les ingénieurs dans la réalisation des pipelines et des intégrations. Industrialiser et monitorer des chatbots IA et applications LLM en production. Mettre en place une démarche CI/CD & ML Collaborer avec les architectes cloud et équipes sécurité pour fiabiliser l’infrastructure IA. Assurer la performance, la conformité et la sécurité des solutions mises en production. Contribuer à la veille technologique IA/MLOps et à l’adoption de nouveaux outils (LangChain, MLFlow, Vertex Pipelines, etc.). Profil recherché Expérience : confirmé Expertise démontrée sur GCP et sa stack IA/ML (Vertex AI, GKE, Dataflow, BigQuery). Expérience confirmée en design d’architectures IA/ML et en gouvernance MLOps (mise en place de frameworks, monitoring, CI/CD ML). Maîtrise des environnements LLMs et des solutions de productionisation de modèles conversationnels (chatbots, agents IA). Leadership technique : accompagnement d’équipes, code review, standardisation, montée en compétence. Capacités de communication et de vulgarisation auprès des équipes techniques et métiers. Anglais professionnel (projets internationaux). Stack & environnement technique Cloud : Google Cloud Platform (GCP), Vertex AI, GKE, BigQuery, Dataflow Langages : Python (expertise requise), YAML, SQL Outils MLOps : MLFlow, Kubeflow, Vertex Pipelines, Airflow CI/CD : GitLab CI, Cloud Build, Terraform LLMs : OpenAI API, Vertex AI LLM, LangChain, HuggingFace Transformers Monitoring & Observabilité : Prometheus, Grafana, Cloud Monitoring Méthodologie : Agile / Scrum
Offre d'emploi
Administrateur base de données
Publiée le
Elasticsearch
Google Cloud Platform (GCP)
Greenplum
1 an
40k-45k €
290-390 €
Tours, Centre-Val de Loire
Contexte Dans le cadre du renforcement de son pôle Production & Données, notre client recherche un Ingénieur de Production Data / Administrateur Bases de Données Confirmé . Le poste est basé à Tours , au sein d’une équipe en charge de l’administration et du maintien en conditions opérationnelles des plateformes data on-premise et cloud. Missions principales L’ingénieur de Production Data assure la gestion, la disponibilité et les performances des environnements data de l’entreprise. À ce titre, ses responsabilités incluent : Administration & MCO Administration, optimisation et supervision des bases de données Oracle , Postgres et Couchbase . Gestion des plateformes data (ex. Greenplum , Elasticsearch , Couchbase, etc.) en environnement on-premise et GCP . Mise en place, configuration et évolution des environnements de production. Suivi de la performance : mémoire, disques, index, requêtes. Exploitation & Support Gestion des incidents et participation à la résolution des problèmes. Stratégies de sauvegarde, restauration et supervision. Gestion des accès et création des comptes utilisateurs. Participation aux astreintes. Ingénierie & Documentation Mise en œuvre et optimisation de scripts d’exploitation. Réalisation de schémas techniques et de documentation d’exploitation. Contribution à la veille technologique sur les sujets data & SGBD. Livrables attendus Scripts d’exploitation et d’automatisation Schémas techniques Documentation technique & procédures Compétences techniques requises (impératives) Oracle – Confirmé Postgres – Confirmé GCP – Confirmé Couchbase – Confirmé Compétences en plateformes data : Greenplum, ElasticSearch, etc. Maîtrise des environnements de production (MCO, supervision, optimisation) Compétences transverses Rigueur, autonomie, sens de l’analyse Capacité à gérer plusieurs environnements critiques Esprit d’équipe et communication claire Connaissances linguistiques Anglais professionnel – impératif Profil recherché DBA Confirmé / Ingénieur de Production Data Expérience significative en administration de bases de données dans des environnements exigeants Bonne compréhension des architectures data et cloud Aisance avec les processus ITIL (incidents, problèmes, changements) Localisation 📍 Tours (37) Possibilité de déplacements ponctuels selon les besoins.
Offre d'emploi
Cloud Data Engineer
Publiée le
Big Data
Cloud
60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Offre d'emploi
Data ENG GCP CAEN
Publiée le
Git
Google Cloud Platform (GCP)
Jenkins
12 mois
40k-45k €
400-550 €
Caen, Normandie
Télétravail partiel
Dans le cadre du développement de nos activités Data & Cloud auprès d’un grand compte , nous recherchons un Data Engineer expérimenté sur l’écosystème GCP pour rejoindre une équipe projet dynamique basée à Caen( de préférence un profil habitant Caen et ses alentours (3jours sur site /2jours TT .) Vous interviendrez au cœur d’un environnement technologique innovant, sur la construction, l’industrialisation et l’optimisation des pipelines de données dans un contexte Cloud en pleine transformation.
Mission freelance
Customer Data Modeler
Publiée le
Big Data
6 mois
France
Télétravail 100%
Dans le cadre de la phase 2 du projet , nous recherchons un expert pour le modèle de données client . Responsabilités : Concevoir et documenter les modèles de données Customer Master Data . Définir les processus de gouvernance, rôles et règles de qualité. Collaborer avec les équipes métier et IT pour garantir l’alignement. Compétences requises : Expertise solide en Master Data Management , particulièrement sur le domaine Customer (modélisation, gouvernance, qualité). Bonne compréhension des processus liés au domaine client. Connaissance de SAP S/4HANA et SAP MDG (un plus).
Mission freelance
Développeur SQL (F/H)
Publiée le
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer
6 mois
Lille, Hauts-de-France
Télétravail partiel
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
Offre d'emploi
Lead Dev
Publiée le
Docker
Google Cloud Platform (GCP)
Java
40k-52k €
Lille, Hauts-de-France
Télétravail partiel
Ce que nous offrons : - La chance de travailler avec des technologies de pointe comme Java, JavaScript, Node.js, React, Vue.js, Kubernetes, Docker, et bien d'autres. - Un rôle de leader au sein d'une équipe dynamique et créative, avec la possibilité de façonner l'avenir de la technologie. - Un poste basé dans la métropole lilloise, un écosystème vibrant pour les passionnés de tech. Missions pour le Lead Developer : - Pilotage technique des projets, de la conception à la mise en production, en assurant la qualité, la performance et la sécurité des solutions développées. - Management d'une équipe de développeurs, en guidant leur montée en compétences et en promouvant les meilleures pratiques de développement. - Collaboration étroite avec les équipes produit, design et QA pour assurer l'alignement et l'excellence dans la livraison des projets. - Veille technologique continue pour intégrer de nouvelles technologies et méthodologies qui pourraient bénéficier aux projets et à l'équipe. - Développement et maintien d'une architecture scalable et performante, en utilisant Docker et Kubernetes pour l'orchestration des conteneurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2193 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois