Find your next tech and IT Job or contract Data Lake

Contractor job
Consultant SIRH Data Pléiades
Missions principales : • Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. • Spécifications fonctionnelles : rédiger les spécifications fonctionnelles d’extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. • Collaboration avec les équipes Data : travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. • Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l’accès sécurisé des données RH.

Job Vacancy
Architecte Solution Stream IT Data Monétique
Offre d'emploi : Architecte Solution Stream IT Data Monétique Dans un contexte de révolution numérique des paiements par carte et de l'initiative de paiement paneuropéen, une grande banque européenne recherche un architecte solution pour son domaine data monétique. Contexte Le monde des paiements par carte est en pleine effervescence et promet une transformation numérique sans précédent. Les termes tels que data lake, event stream, base de données distribuée, consistency, availability, RPO/RTO, acceptation, acquisition, SLA, Cloud vous interpellent ? Cette annonce est faite pour vous ! Missions principales Définir les évolutions des composants du stream IT data monétique et documenter les changements et leurs impacts Assurer la cohérence des solutions avec le cadre d'architecture du groupe bancaire Garantir l'évolutivité et la résilience du système Collaborer avec les équipes métier, architectes d'entreprise, sécurité et développement
Job Vacancy
Azure Devops Engineer - SC cleared
Azure Devops Engineer - SC Cleared Our client has a vacancy for an Azure Devops Engineer available immediately. Skills: - Terraform - Terragrunt - Terra Test - Packer - Ansible - Gitlab - Kafka - Azure Activities include: Build Kafka logging solution based on fluentd/td-agent Build file transfer solution Build Azure based virtual machines with SMB mount support for Azure Data Lake Storage The role is based from home and is for 3 months initially. To be considered please send over your latest CV to be reviewed. Due to the nature and urgency of this post, candidates holding or who have held high level security clearance in the past are most welcome to apply. Please note successful applicants will be required to be security cleared prior to appointment which can take up to a minimum 10 weeks. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.

Job Vacancy
Data Analyst Production / IT (H/F)
Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité

Contractor job
Data Engineer GCP confirmé
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.

Job Vacancy
Expertise Denodo
Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.
Contractor job
Data Engineer | DevOps AWS (H/F)
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Contractor job
Architecte Solution Data AWS
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :
Job Vacancy
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor

Job Vacancy
Ingénieur DevOps Cloud Azure (H/F)
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'Ingénieur DevOps Cloud Azure. Vos missions : - Assurer l'administration de plateformes cloud - Modéliser l'architecture Cloud à mettre en œuvre lors des phases de construction et d'évolution des produits SaaS - Contribuer aux évolutions de la plateforme et à son industrialisation - Promouvoir et vulgariser les pratiques et les technologies DevOps auprès des équipes tech - Assurer les livraisons projets et le support pour les équipes de développement applicatif - Assurer le respect au quotidien des engagements de services et des moyens mis en œuvre (qualité de résolution, respect des procédures et des délais…) - Définir des stratégies de migration d'infra OnPremise vers le cloud - Coordonner et contribuer à la production des documents d'architecture des projets - Mise en place de data lake - Création de plateforme de serveurs pour la gestion des API (API management) Vos compétences : - Maitrise de l'offre Cloud Microsoft Azure - Maitrise des langages de script pour Microsoft Azure : powershell, Bicep - Connaissances de l'administration des serveurs Web et SQL

Contractor job
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)

Job Vacancy
Ingénieur DBA & DevOps Cloud (AWS) H/F
Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Missions principales : • Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). • Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). • Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. • Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). • Optimiser les performances (requêtes SQL, tuning, architectures de stockage). • Garantir la haute disponibilité, le PRA et la continuité de service. • Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). • Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. • Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). • Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase.

Job Vacancy
Lead Dev Databricks
Nous recherchons un Tech Lead Data (H/F) pour intervenir sur un projet stratégique autour d’une plateforme digitale innovante, connectée à des infrastructures réparties dans plusieurs pays. L’objectif de la mission est de contribuer au développement, à l’évolution et au maintien en conditions opérationnelles d’un Data Lake et de ses pipelines. Vos principales responsabilités : Concevoir et développer des pipelines Data sur Databricks, Python, Spark SQL et Azure Blob Storages . Participer aux déploiements sur les environnements de test et de production. Assurer la maintenance corrective et évolutive des composants logiciels en production. Collaborer avec les équipes de développement Web, IoT, SQL et autres pôles techniques. Apporter un support technique et participer aux choix d’architecture et de conception. Contribuer activement à une organisation en méthodologie Agile (SCRUM) au sein d’une équipe pluridisciplinaire.
Contractor job
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Contractor job
Product Owner SIRH/ DATA
Dans le cadre d’une refonte complète du SIRH , l’entreprise déploie un nouvel écosystème articulé autour de Oracle HCM (Core RH déployé en 2024, module Talents prévu pour 2026) et de ADP Decidium pour la paie (mise en service prévue début 2026). En parallèle, une plateforme Data RH est en cours de mise en œuvre afin de centraliser, fiabiliser et automatiser l’analyse des données et la production de reportings RH. Le Product Owner Data RH interviendra au sein du pôle Ressources Humaines, en lien étroit avec les équipes Paie, RH, Contrôle de gestion sociale et les équipes techniques de la DSI. Objectifs de la mission Piloter le projet et la relation avec l’intégrateur (planning, comitologie, livrables, recettes). Coordonner les contributions des équipes internes (IT, Achats, Sécurité, Conformité, etc.). Garantir la mise à disposition des livrables techniques nécessaires (sources de données, reprises, prérequis techniques et sécurité). Accompagner les équipes RH dans la conception de tableaux de bord et rapports automatisés . Soutenir la montée en compétence et en autonomie du métier sur la plateforme Data RH. Suivre et améliorer la qualité des données RH en réduisant la dépendance aux extractions et retraitements manuels. Compétences attendues Solide expérience en gestion de projet Data et en pilotage de prestataires externes . Bonne compréhension des processus RH et des interactions entre systèmes HCM et Paie . Capacité à recueillir, formaliser et prioriser les besoins métiers. Excellent relationnel, pédagogie et esprit collaboratif. Environnement technique ERP RH : Oracle HCM (Core RH & Talents) et ADP Decidium (Paie). Connaissance des systèmes d’information RH et des flux de données associés. Architectures de données : ETL, data warehouse, data lake. Outils BI / reporting : Power BI , Tableau , SAP BO ou équivalents. Bon niveau en SQL/NoSQL pour la manipulation et l’analyse de données. Suivi projet via Jira et Confluence .
Contractor job
AI & ML Senior Engineer
AI & ML Senior Engineer 6 Month contract initially Based: Hybrid/London - Max 2 days p/w onsite Rate: £Market rates p/d (via Umbrella company) We have a great opportunity with a world leading organisation where you will be provided with all of the support and development to succeed. A progressive organisation where you can really make a difference. We have a great opportunity for a number of AI & ML Senior Engineer's to join the team. Join us as an AI & ML Senior Engineer and make a meaningful impact on our data-driven journey. You will have the opportunity to work on real-world, high-scale ML systems impacting millions of customers. Be part of a modern ML Engineering team in a supportive, cross-functional environment. Learn from senior engineers and grow your skills across the full ML Ops stack. We're looking for an AI & ML Senior Engineer to join our growing ML Engineering team. You'll work alongside data scientists, engineers, and product managers to develop, deploy, and operate robust ML systems that power key services across our Digital and Retail platforms. This role focuses on ML Ops and ML Platform development, helping us to scale and maintain production-ready ML workflows using modern cloud infrastructure and tools. Key Responsibilities: * Develop and maintain ML pipelines for training, validation, deployment, and monitoring of models. * Support scalable ML solutions across use cases like recommendations, forecasting, and automation. * Work with tools like Airflow, Azure ML, and FastAPI to deliver production-ready systems. * Automate model deployment workflows using CI/CD tools (e.g. GitHub Actions, Azure DevOps). * Contribute to the reliability, observability, and performance of the ML platform. * Collaborate with data scientists to productionise research code and models into scalable services. * Help implement monitoring, alerting, and model drift detection using tools like NewRelic, Azure Monitor, and custom logging frameworks. * Continuously improve and manage infrastructure using Terraform, Docker, and Fargate. Key Skills & Experience: * Proven experience in ML Engineering, DevOps, or Data Engineering with exposure to ML lifecycle. * Hands-on experience building or maintaining ML workflows or pipelines. * Strong Python skills and experience with tools like MLflow, Scikit-learn, or PyTorch. * Familiarity with cloud platforms (especially Azure, AWS). * Good understanding of containerisation (Docker) and orchestration (e.g. Kubernetes). * Exposure to CI/CD tools (GitHub Actions, Azure DevOps) and infrastructure-as-code (Terraform). * Collaborative team player with excellent communication skills. Technical Stack: * Languages: Python (primary), SQL, Bash * Cloud: Azure, AWS * Tools: MLflow, Azure ML, Airflow, Docker, Fargate, FastAPI * Data: Snowflake, Delta Lake, Redis, Azure Data Lake * Infra & Ops: Terraform, GitHub Actions, Azure DevOps, Grafana, Azure Monitor Desirable skills/knowledge/experience: * Knowledge of data platforms (e.g. Snowflake, Azure Data Lake). * Experience deploying models as APIs (FastAPI, Azure Functions). * Understanding of monitoring, model performance tracking, and observability best practices. * Familiarity with orchestration tools like Airflow or Azure Data Factory. This is an excellent opportunity on a great project of work, If you are looking for your next exciting opportunity, apply now for your CV to reach me directly, we will respond as soon as possible. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country