L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 749 résultats.
Mission freelance
POT8751 - Un Architecte DATABRICKS sur Laval
Publiée le
Azure
6 mois
100-550 €
Laval, Pays de la Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte DATABRICKS sur Laval. Contexte : Notre souhaite faire évoluer son architecture de traitement de données en supprimant l’usage d’Azure Data Factory, jugé désormais inadapté à ses attentes. L’architecture actuelle repose sur un modèle en médaillon, qui ne répond plus aux exigences opérationnelles et stratégiques. Objectifs : - Assurer la maintenance des environnements Databricks existants. - Concevoir et développer des flux de données entre les applications métiers et la plateforme Databricks. - Accompagner la transition vers une architecture cible plus moderne et performante, sans Azure Data Factory Profil recherché : - Consultant autonome sur Databricks, capable de prendre en main rapidement des environnements complexes. - Bonne compréhension des architectures data, notamment dans des contextes cloud Azure. - Esprit structuré, capacité à proposer des solutions pertinentes et à collaborer efficacement avec les équipes internes. - Autonomie, rigueur, et sens du service client.
Offre d'emploi
Data Analyst
Publiée le
Microsoft SQL Server
Microsoft SSIS
Tableau Desktop
Paris, France
Télétravail partiel
En tant que Data Analyst au sein de la division e-banking d’une des principales institutions financières européennes, vous serez chargé·e de transformer des données complexes en insights exploitables, afin d’orienter les décisions stratégiques et l’innovation dans la banque digitale. Vous travaillerez en étroite collaboration avec des équipes pluridisciplinaires, en exploitant des outils analytiques avancés pour améliorer l’expérience client, optimiser la performance opérationnelle et soutenir la conformité et la sécurité dans un environnement dynamique et exigeant. Vos missions principales Concevoir, développer et maintenir des tableaux de bord et rapports interactifs pour soutenir l’intelligence décisionnelle. Extraire, transformer et charger (ETL) les données issues de divers systèmes bancaires via SSIS, en garantissant leur qualité et leur cohérence. Réaliser des analyses approfondies sur des bases MSSQL : requêtage, modélisation, nettoyage. Collaborer avec les parties prenantes pour recueillir les besoins métier et les traduire en solutions techniques. Surveiller et évaluer les flux de données, résoudre les problèmes et proposer des améliorations. Documenter les processus, standards et méthodologies pour assurer la transparence et la reproductibilité. Réaliser des analyses ponctuelles pour soutenir la conformité réglementaire, la gestion des risques et le développement produit. Participer à la migration et à l’intégration de systèmes legacy vers des plateformes analytiques modernes.
Offre d'emploi
Data Engineer (H/F)
Publiée le
Big Data
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Mission freelance
Expert SAP CO
Publiée le
Déploiement
Finance
SAP CO
12 mois
Paris, France
Télétravail partiel
Consultant Expert SAP CO (PC / PA) – Projets & Roll-Out – Paris / Remote 📍 Localisation : 3 jours sur site / 2 jours remote ✈️ Déplacements potentiels : USA (en fonction des projets) 🚀 Démarrage : ASAP ⏳ Durée : Mission longue 🔎 Statut : Freelance uniquement 🌐 Langue : Anglais courant (Espagnol = plus, non obligatoire) Nous recherchons un Consultant SAP CO Expert (périmètre CO PC / CO PA , ML apprécié) pour intervenir sur différents projets et roll-out internationaux au sein d’un grand groupe industriel. Le consultant interviendra sur un périmètre mêlant ECC et S/4HANA , principalement sur des projets d’évolution, de déploiement et de mise en place de solutions nouvelles au sein des filiales du groupe. Une part très limitée de RUN est à prévoir. Contexte international & anglophone avec exposition aux équipes globales.
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Consultant BI / Data Engineer – Secteur Gestion d’Actifs
Publiée le
DAX
Microsoft SQL Server
Microsoft SSIS
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Secteur : Finance / Gestion de fonds Localisation : Paris / Hybrid Type : CDI Notre client, un acteur majeur du secteur Finance / Gestion d’actifs , recherche un Consultant BI / Data Engineer confirmé afin d’intervenir sur des projets stratégiques de migration, d’évolution et d’optimisation des plateformes décisionnelles. 🎯 Objectif : remplacer un consultant expert, poste à compétences identiques. 🎓 Profil recherché Vous justifiez d’au moins 10 ans d’expérience en BI , avec une expertise forte sur l’environnement Microsoft BI : Compétences techniques indispensables : SQL Server (2016 → 2022) SSIS, SSRS, SSAS (Tabular & Multidimensional) Power BI (Report Server & Online) – DAX – RLS – Administration Azure DevOps / Azure DataFactory / Data Pipeline DataWarehouse, Datamarts, modélisation décisionnelle Reporting réglementaire & opérationnel Atouts supplémentaires Connaissance Fabric / Power BI Online Expérience en migration de plateformes BI Connaissance du secteur Finance / Gestion de fonds (vrai plus) 💼 Vos principales missions Migration SQL Server (2016 → 2022) et modernisation de la plateforme BI Migration SSIS, SSRS, SSAS Tabulaire / Multidimensional Migration Power BI Report Server → Power BI Online Gestion et administration des workspaces, datasets, gateways Conception et optimisation des flux d’intégration (SSIS, ADF) Développement de rapports SSRS / PBI, dashboards et cubes tabulaires Support utilisateurs + amélioration continue Participation à un environnement Agile / SCRUM
Mission freelance
Développeur Oracle Data Integrator (ODI)
Publiée le
ODI Oracle Data Integrator
24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Mission freelance
Data Engineer / Data Analyst
Publiée le
BigQuery
CI/CD
Google Cloud Platform (GCP)
2 ans
420-500 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données Compétences attendues : - Expériences significatives comme Data Engineer / Data Analyst - Maîtrise de SQL, Python, PowerBI, GCP, CI/CD, Terraform, Github et les ETL/ELT - Anglais un + Mission basée sur la métropole lilloise avec télétravail hybride
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Offre d'emploi
DevOps (H/F) - Lyon
Publiée le
Ansible
Elasticsearch
Linux
1 an
45k-55k €
380-480 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans le cadre de nos missions pour un client stratégique , nous recherchons un(e) DevOps expérimenté(e) pour intervenir sur le déploiement d’applications, la mise en œuvre de chaînes CI/CD et l’amélioration continue de l’infrastructure et de la qualité de la production. Missions principales Participation à l’amélioration continue de l’infrastructure Maintenance et évolution des pipelines Jenkins et des chaînes CI/CD Livraison des applications en environnements de recette et de production Amélioration des métriques applicatives et des dashboards de supervision (Grafana) Mise en œuvre, amélioration et exécution des tests et scénarios de performance Maintenance et évolution de l’ Infrastructure as Code Collaboration étroite avec les équipes de développement et les équipes d’exploitation
Mission freelance
230156/Expert Data SQL/SSIS/Teradata/kubernetes - Lyon
Publiée le
Microsoft SSIS
3 mois
Lyon, Auvergne-Rhône-Alpes
Expert Data SQL/SSIS/Teradata/kubernetes- Lyon Tâches : • Support data ( MS SQL & SSIS) • Recetter les infras livrées (gestion des droits, des circuits de livraison, des performances) • Echanger avec l'entité Infra & l'entité cliente Profil recherché : • Expérience projets de migration (mode usine, industrialisation de transformation de procédures) • Expérience MS SQL, SSIS • Expérience développement & tests • Teradata serait un plus • Environnement Kubernetes • Aisance rédactionnelle (documentation à fournir aux développeurs) Expected skills Skills Skill level Terradata Advanced SQL Expert SSIS Confirmed KUBERNETES Advanced
Mission freelance
Expert Axway
Publiée le
Administration linux
Administration Windows
Axway
6 mois
Paris, France
Télétravail partiel
Métier : Pilotage de projet ou de programme, Expert Spécialités technologiques : Gestion des incidents, MFT, Monitoring, Reporting Technologies et outils : Apache Tomcat, Composer, Linux, VMware, Jboss, ServiceNow, AWS, Axway Synchrony, Python, PHP, Azure, HTTP, Perl, PowerShell, SFTP, Windows, Swift, TCP/IP Normes / Méthodes : ITSM, ITIL, Command Secteur d'activité : Assurance Description de la prestation : Le projet concerne un grand groupe international du secteur assurance et services financiers, avec une organisation IT centrale fournissant des services technologiques à ses entités (assurance, banque, services). L'objectif est de concevoir, exploiter et faire évoluer des solutions de transferts de fichiers sécurisés, robustes et très disponibles, dans un contexte de transformation digitale continue. Les équipes IT interviennent à l’échelle internationale dans des environnements complexes réglementés, avec une forte exigence de sécurité et de disponibilité. Le poste consiste à rejoindre une équipe d’experts en support, maintenance et delivery de plateformes techniques mutualisées, principalement centrée sur la gestion et l’optimisation des plateformes de Managed File Transfer (MFT). Principales responsabilités : Garantir la disponibilité, la sécurité et la performance des plateformes critiques Installer, maintenir et faire évoluer les plateformes de transferts de fichiers Superviser la production et résoudre les incidents techniques complexes Administrer les transferts de données en interne et avec des partenaires Soutenir les utilisateurs et équipes applicatives dans l’exploitation des flux Prioriser et sécuriser les transferts en environnement de production Développer des scripts et automatisations pour les transferts et traitements batch Suivre, monitorer et faire du reporting sur les flux applicatifs Analyser incidents, produire une documentation d’exploitation conforme Participer à la gestion des incidents, problèmes et changements (support niveau 3) Améliorer la stabilité, la performance et la résilience des systèmes Rédiger et mettre à jour guides opérationnels, procédures et instructions Utiliser l’outil ITSM (ServiceNow) pour les demandes standards Diagnostiquer et résoudre les incidents techniques Collaborer à l’automatisation et l’industrialisation des traitements avec de développement Objectifs : Renforcer la valeur ajoutée IT pour l’organisation Soutenir l’innovation en collaboration avec les équipes métiers et techniques Favoriser la simplicité, la fiabilité et l’autonomie dans les pratiques quotidiennes
Mission freelance
Product Owner Data Sénior Localisation : Paris– La Défense (TT possible : 2 jours / semaine)/ko
Publiée le
Méthode Agile
6 mois
400-470 £GB
Paris, France
Télétravail partiel
Product Owner Data Sénior Localisation : Paris – La Défense (Télétravail possible : 2 jours / semaine) Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data . Contribuer à la roadmap Data à 3 ans , et à la mise en place du PI Planning . Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ , incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution , sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture , notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business , capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Mission freelance
[SCH] Expert Data SQL / SSIS – Support & Migration (Lyon) - 1044
Publiée le
10 mois
350-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de migration et d’industrialisation des procédures Data, la DSI recherche un expert SQL / SSIS pour intervenir en support des équipes techniques et garantir la qualité, la performance et la conformité des infrastructures livrées. L’environnement technique est orienté Microsoft Data Platform (SQL Server, SSIS) avec une composante Kubernetes pour le déploiement et la supervision des traitements. Missions principales : -Assurer le support Data sur les environnements MS SQL et SSIS. -Recetter les infrastructures livrées : contrôle des droits, circuits de livraison, performance et intégrité des traitements. -Collaborer avec les équipes Infrastructure et Métier pour identifier les besoins et garantir la cohérence des flux. -Participer à la migration des procédures dans un cadre industrialisé (“mode usine”). -Produire la documentation technique et fonctionnelle à destination des équipes de développement. -Contribuer à la qualité, la performance et la sécurité des environnements Data. Objectifs & livrables attendus : -Environnements SQL/SSIS validés et optimisés. -Documentation technique claire et complète pour les développeurs. -Plan de migration et de transformation industrialisé. -Reporting d’avancement et analyse des performances. Profil recherché : - >8 ans d’expérience en environnement Data Microsoft (SQL, SSIS). -Expertise en projets de migration et en industrialisation de procédures. -Solide maîtrise du développement et des tests SQL / SSIS. -Bonne compréhension des environnements Kubernetes (déploiement / supervision). -Connaissance Teradata appréciée. -Excellente aisance rédactionnelle et rigueur documentaire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
2749 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois