The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 1,361 results.
Contractor job
Architecte Technique Solution Data
Published on
Big Data
Cloudera
3 months
400-690 €
Ile-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Job Vacancy
ServiceNow Developer/Configurator (DV cleared, Outside IR35)
Published on
6 months
GU14 7SR, Rushmoor, England, United Kingdom
Role Overview The ServiceNow Developer / Configurator is responsible for configuring, developing, and supporting ServiceNow applications to meet business and technical requirements. This role focuses on building reliable, maintainable, and upgrade-safe solutions using ServiceNow best practices, while collaborating closely with architects, product owners, and stakeholders. The Developer / Configurator plays a key role in delivering platform enhancements, automations, and integrations that improve service delivery and user experience across the organization. Key Responsibilities Configure and develop ServiceNow applications in alignment with approved solution designs and architectural standards. Build and maintain platform components such as: Business Rules Client Scripts UI Policies Script Includes Flows and Workflows Configure ServiceNow modules such as ITSM, ITOM, HRSD, CSM, SecOps, GRC, or SPM as required. Implement forms, lists, catalogs, and portal components to support business processes. Develop and support integrations using REST and SOAP APIs, MID Servers, and data imports. Ensure all configurations and customizations are upgrade-safe and adhere to platform best practices. Support testing activities, including unit testing, system testing, and UAT defect resolution. Troubleshoot and resolve platform defects, performance issues, and user-reported incidents. Maintain technical documentation for developed solutions and configurations. Collaborate with architects and senior developers during design reviews and sprint planning. Participate in platform upgrades, patching, and release management activities. Required Skills & Experience Hands-on experience developing and configuring ServiceNow in a professional environment. Strong understanding of ServiceNow scripting and configuration, including JavaScript fundamentals. Experience working with core ServiceNow development tools and features, including: Flow Designer Service Catalog CMDB and Discovery (where applicable) Familiarity with ServiceNow security concepts such as roles, ACLs, and data protection. Experience working in Agile / Scrum delivery teams. Ability to interpret functional requirements and translate them into technical solutions Due to the nature and urgency of this post, candidates holding or who have held high level security clearance in the past are most welcome to apply. Please note successful applicants will be required to be security cleared prior to appointment which can take up to a minimum 18 weeks. LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Job Vacancy
Data Architecte - Lyon
Published on
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor job
Chef de Projet Data Migration – Projet d’intégration S/4HANA
Published on
SAP
6 months
Marne, France
Hybrid
Contexte: Notre client, un acteur industriel majeur, engage un projet d’intégration ambitieux visant à remplacer tout ou partie de ses systèmes sources par l’ERP S/4HANA. Dans ce cadre, nous renforçons l’équipe Migration avec un profil expérimenté pour piloter les activités et la production des livrables sur un domaine fonctionnel ciblé. Environnement technique: S/4HANA, outils de migration (ex: SAP Data Services, LTMC), suites de tests (SAP TAO, SolMan). Type de contrat: Freelance (via ZENITH). Poste ASAP
Job Vacancy
Data scientist
Published on
Python
40k-60k €
Paris, France
Hybrid
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Job Vacancy
Analyste fonctionnel GED/workflow - Editique
Published on
Agile Method
EDM (Electronic Document Management)
Workflow
6 months
40k-45k €
400-550 €
Auvergne-Rhône-Alpes, France
Hybrid
Dans le cadre des travaux d'éditique, de GED/workflow et de conformité, nous recherchons un profil MOA (analyste fonctionnel) qui rejoindra l’équipe des partenariats métiers. Il interviendra sur l'ensemble des travaux d'éditique du domaine ainsi que sur ceux de la GED/workflow (gestion des activités) et de la Conformité (notamment LCB-FT). Il devra être en capacité de piloter / animer le déroulé d'une campagne TFA (notamment la campagne sur le T1 2026 et sera également amené à travailler sur la mise en place de la production des documents : - A échéance trimestrielle ; - A la demande. La mission porte sur la prise en charge des sujets relatifs à la maîtrise d'ouvrage principalement sur les périmètres GED et EDITIQUE, et par extension également à la Conformité : - Recueillir les besoins en animant des ateliers ou des réunions de cadrage ; - Rédiger des études, des supports de présentation ou des spécifications fonctionnelles ; - Animer des ateliers de validation des solutions auprès d'utilisateurs et des Centres d'Expertises BO ; - Accompagner les équipes MOA dans la réalisation des travaux ; - Réaliser les reporting de pilotage des chantiers GED/workflow (application Eversuite), Editique (plateforme SolEd) et Conformité (application Capital Compliance) ; - Participer à la recette fonctionnelle ; - Garantir la validation fonctionnelle des projets ; - Rôle de Proxy PO auprès des équipes transerves GED et EDITIQUE transverse (Planification / piorisation et suivi es travaux) et Conformité LCB-FT.
Job Vacancy
Data Ops
Published on
DevOps
Python
40k-70k €
Levallois-Perret, Ile-de-France
Hybrid
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Contractor job
H/F - Product Owner CRM & Data Client
Published on
Backlog management
Drafting of functional specifications
Salesforce Sales Cloud
3 months
Paris, France
Hybrid
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Job Vacancy
Director of ERP and CRM MS Dynamics 365 - London
Published on
£90k-110k
King's Cross, England, United Kingdom
Director of ERP and CRM MS Dynamics 365 - London The Director of ERP and CRM is a senior member of the IT leadership team and reports to the Senior Director of Business Applications. They will be responsible for managing Dynamics 365 F&O, D365 CRM, all associated independent software package integrated to D365 F&O and CRM. and legacy ERP applications (Navision, DataFlo) . The successful candidate will have experience working with senior management to collaborate on business objectives and solutions. They must have strong leadership skills to build and manage an effective team of analysts and developers to support the business's systems and reporting requirements. This position will be a key business partner to functions across the organization. Their team will support business application users globally and provide support with local and remote support teams. Responsibilities: Partner with the functional leaders and their organizations to create Dynamics365 F&O and CRM roadmaps. Oversee the successful implementation of the ERP and CRM roadmap and portfolio of projects, either directly or in conjunction with the IT PMO, that is aligned integrated with Company short term and long-term goals Establish and lead the creation of technical SOPs and work instructions Organize and lead a highly technical global team for scale and growth Specify and implement standards, methods, and procedures for inspecting, testing, and evaluating the quality, efficiency, and reliability of business applications Implement CSI's technology risk management framework, including Information security, privacy, and disaster recovery. Foster a culture of trusted partnership, service, and continuous improvement Establish and meet service level commitments to support reliable and efficient daily operations Managing significant capital and operating budgets Lead and coach the ERP and CRM team to their full potential and develop their careers Support and drive process change and communication in line with Dynamics365 F&O and CRM best practice Coordinate and contribute to end-user training, including the development of system documentation and training materials Assist with functional specifications of customizations and integrations required for Dynamics365 F&O and CRM implementations Provide pre-go-live and post-go-live end-user support Serve as the lead Dynamics365 F&O and CRM technical expert on the development team Take responsibility for the customized unit programming and overall system functionality Work with the Project Managers, Business Analyst and Consultants to understand the business/application requirements of the assigned task Take responsibility for delivering development tasks within agreed budgets and timelines Creation of technical documentation for all customizations and integrations Qualifications: The ideal candidate will have the following qualifications and capabilities: Excellent leadership, management, interpersonal and communication skills. Success managing complex systems implementation projects Functional knowledge of F&O capabilities for finance, manufacturing, and supply chain Functional knowledge of CRM capabilities for the prospect to order, marketing, and field service Experience integrating ISVs with D365 Experience with connecting D365 with Azure data lake Expertise in understanding complex technology & applying it in a practical way to create business solutions Minimum Experience: Bachelors or advanced degree in an analytic discipline such as engineering, economics, or information management Experience designing and presenting IT solutions In-depth knowledge of Dynamics 365 F&O and CRM (CE), including LCS, DevOps, BYOD, Dual-Write (DataVerse), RSAT SOX, HIPAA & GDPR knowledge preferred Senior-level application management experience (12+ years) 12+ years of people management 2+ years in a large international company preferred Excellent organizational skills with the ability to balance multiple demands Proven ability to write effective system and process documentation –including business and system requirements, process diagrams, and data flow charts Exceptional customer service skills follow up with clients and team members and takes the initiative to anticipate and solve problems Effective time management skills Ability to communicate effectively with all levels of the business Ability to establish priorities, work independently and proceed with objectives with a minimum of supervision Ability to handle and resolve conflict Salary for this role will be in the range £90K - £110K plus benefits. The position will be based in Kings Cross London – with remote working until the pandemic is resolved. Do send your CV to us in Word format along with your salary and availability.
Contractor job
Data Engineer
Published on
Hadoop
6 months
100-420 €
Orléans, Centre-Val de Loire
Nous recherchons quelqu’un avec de solides compétences sur SQL (notamment HIVE)..... ...... ..... ..... ..... ..... ...... ..... ..... ..... ..... ..... ... .... .. ..... ...... HADOOP (développement sur Cloudera Data Platform)...... ...... ...... ..... .. .. .. .... ..... .... .... ... ... ... Shell UNIX. ...... ....... ...... ....... ....... ..... ....... ..... ..... .... .... ....... ..... Git...... ...... ...... ...... ...... .... ..... ....... .... ... .... .... .... .... ... ... ... ... ...
Job Vacancy
Développeur Sophis - C# / C++
Published on
C#
C/C++
Market data
3 years
Ile-de-France, France
Objectif de la mission Renforcer une équipe de développement intervenant sur une plateforme de booking et de suivi de positions utilisée dans un environnement de trading actions et dérivés. La mission consiste à développer, maintenir et améliorer des composants critiques liés au booking de produits complexes, à l’intégration des données de marché et au calcul de P&L. Vos responsabilités Analyser les besoins techniques et fonctionnels liés aux produits financiers traités. Développer des fonctionnalités à forte valeur ajoutée en C# et C++ . Contribuer à : Le booking de produits complexes L’ intégration des market data Le calcul du P&L via des API de pricing La présentation des positions La diffusion des informations via une couche de services Participer aux travaux d’amélioration continue : qualité, performance, couverture de tests. Proposer des évolutions permettant de simplifier, rationaliser et moderniser la plateforme. Travailler dans un cadre Agile , avec participation aux rituels adaptés. Contribuer aux pratiques DevOps (industrialisation, automatisation, CI/CD).
Contractor job
SAP FS-RI Functional Consultant/Developer - 10 months - part time 1/5 - Fully remote role
Published on
ABAP
SAP
SAP ABAP
10 months
Brussels, Brussels-Capital, Belgium
Remote
SAP FS-RI Functional Consultant/Developer - 10 months - part time 1/5 - Fully remote role Our important client is looking for an SAP FS-RI Functional Consultant/Developer for a 10-month contract. This is a fully remote work. Role Overview Translate reinsurance business requirements into SAP FS-RI solutions Configure core FS-RI components (treaties, assumed/ceded reinsurance, bordereaux, loss & reserves) Design and document functional specifications (RICEF) Perform unit, integration and UAT testing Provide 3rd-line support and resolve complex incidents Contribute to full lifecycle SAP FS-RI implementations Technical & development responsibilities Develop and enhance ABAP solutions (reports, interfaces, BAdIs, user exits) Work with OO ABAP and FS-RI-specific objects Perform data migrations (LSMW, custom ABAP) Debug and optimize ABAP and FS-RI configurations Collaborate with Basis teams on upgrades and performance Key skills & experience 5+ years hands-on SAP FS-RI experience Strong knowledge of reinsurance processes (Proportional, Non-Proportional, Facultative) Expert SAP FS-RI configuration skills Advanced ABAP development and debugging experience Solid integration knowledge with SAP FICO, FS-CD, ECC/S/4HANA Strong analytical, communication and stakeholder-facing skills Language & location Fluent English required (French is a plus) Nearshore / Offshore delivery model If you are interested please send me your CV and I will contact you as soon as possible with further details.
Contractor job
Expert Big Data – Spark / Airflow – Secteur Bancaire
Published on
Apache Airflow
Apache Spark
12 months
400-460 €
Montreuil, Ile-de-France
Dans le cadre de notre développement, nous recherchons un Expert Big Data pour accompagner un acteur majeur du secteur bancaire sur des projets stratégiques liés à la transformation et à l’optimisation de ses plateformes de données. Le consultant aura un rôle clé dans l’architecture et la mise en œuvre des pipelines Big Data, garantissant performance, scalabilité et conformité aux exigences métier et réglementaires. Objectifs de la mission : Conception et développement de pipelines Big Data Définir et mettre en place des architectures de traitement de données complexes. Développer et optimiser des workflows Spark et Airflow pour des traitements batch et temps réel. Assurer la qualité, la fiabilité et la performance des pipelines. Support stratégique et technique Conseiller les équipes sur les choix technologiques et les bonnes pratiques Big Data. Participer à la définition de la stratégie de données et à la roadmap technique. Collaborer étroitement avec les équipes métier et IT pour anticiper les besoins et prioriser les évolutions. Gouvernance et qualité des données Garantir la conformité des pipelines aux normes de sécurité et réglementaires du secteur bancaire. Mettre en place des mécanismes de supervision, de monitoring et d’alerte. Assurer la documentation technique et fonctionnelle des solutions déployées.
Job Vacancy
Data Analyse H/F
Published on
Microsoft Power BI
12 months
50k-60k €
500-550 €
Ile-de-France, France
La prestation consistera à participer à : - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Job Vacancy
Analyste d'Exploitation (F/H)
Published on
30k-40k €
Orléans, Centre-Val de Loire
Analyste d'Exploitation (F/H) - Orléans Nous recherchons un Analyste d'Exploitation (F/H) pour l'un de nos clients basé à Orléans . Son rôle sera de participer au maintien en condition opérationnelle de la production, à la mise en place des évolutions, à la gestion des incidents et des demandes utilisateurs. 🎯 Vos missions Livraison des applications et des correctifs d'incidents Création, Lecture et adaptation de scripts d'exploitation Shell, PowerShell, CL400 Evolution des chaînes d' exploitation et des applications Gestion des incidents niveau 1 & 2 Rédaction des documentations d'exploitation Installation des applicatifs windows , Linux/unix,iseries Administration technique et fonctionnelle d'applicatifs Organisation de la mission : Intervenir au sein d'une équipe de 12 personnes Consignes au pilotage
Job Vacancy
Lead Data Engineer / Data Engineer senior H/F
Published on
Ansible
Apache Airflow
Apache Kafka
6 months
65k-80k €
650-760 €
Levallois-Perret, Ile-de-France
Hybrid
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
1361 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k