Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Mission freelance
Architecte Solution Data AWS
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :

Offre d'emploi
Expertise Denodo
Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.

Mission freelance
Consultant SIRH Data
Dans le cadre d'une stratégie Data lancée il y a 3 ans, reposant sur l'écosystème Microsoft (Data Lake, Microsoft Fabric, Power BI), des cockpits de pilotage ont été déployés pour de nombreux domaines fonctionnels (commerce, marketing, centre d'appels, etc.). Le domaine Ressources Humaines reste cependant en retrait : Les données RH sont encore silotées. Leur exploitation repose sur une seule ressource experte, limitant la capacité de partage, de croisement et d'analyse. Les enjeux sont majeurs : la masse salariale représente le principal poste de dépense de l'entreprise. Pour répondre à ces défis, nous recherchons un Consultant SIRH Data chargé de formaliser les besoins fonctionnels, structurer les règles de gestion et préparer l'industrialisation de l'exploitation des données RH au sein de l'écosystème Data. Missions principales Recueil & cadrage des besoins : Identifier et formaliser les besoins métiers du contrôle de gestion concernant les Data RH. Définir les indicateurs clés RH (effectifs, absentéisme, turnover, masse salariale, etc.). Prioriser les besoins en fonction des enjeux stratégiques. Spécifications fonctionnelles : Rédiger les spécifications fonctionnelles d'extraction et de transformation des données RH (Pléiades, Sopra, Horoquartz). Documenter les règles de gestion existantes et à mettre en place. Formaliser un dictionnaire de données RH partagé et pérenne. Collaboration avec les équipes Data : Travailler en étroite relation avec les équipes Data/BI en charge de la réalisation technique (Microsoft Fabric, Power BI). Assurer la cohérence et la qualité des données intégrées au Data Lake. Participer à la recette fonctionnelle des flux et des tableaux de bord RH. Contribution à la gouvernance Data RH : Structurer les processus de mise à jour et de documentation. Contribuer à la démocratisation et à l'accès sécurisé des données RH.

Offre d'emploi
Data Analyst Production / IT (H/F)
Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité

Offre d'emploi
Ingénieur DevOps Cloud Azure (H/F)
Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'Ingénieur DevOps Cloud Azure. Vos missions : - Assurer l'administration de plateformes cloud - Modéliser l'architecture Cloud à mettre en œuvre lors des phases de construction et d'évolution des produits SaaS - Contribuer aux évolutions de la plateforme et à son industrialisation - Promouvoir et vulgariser les pratiques et les technologies DevOps auprès des équipes tech - Assurer les livraisons projets et le support pour les équipes de développement applicatif - Assurer le respect au quotidien des engagements de services et des moyens mis en œuvre (qualité de résolution, respect des procédures et des délais…) - Définir des stratégies de migration d'infra OnPremise vers le cloud - Coordonner et contribuer à la production des documents d'architecture des projets - Mise en place de data lake - Création de plateforme de serveurs pour la gestion des API (API management) Vos compétences : - Maitrise de l'offre Cloud Microsoft Azure - Maitrise des langages de script pour Microsoft Azure : powershell, Bicep - Connaissances de l'administration des serveurs Web et SQL
Offre d'emploi
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor

Offre d'emploi
Lead Dev Databricks
Nous recherchons un Tech Lead Data (H/F) pour intervenir sur un projet stratégique autour d’une plateforme digitale innovante, connectée à des infrastructures réparties dans plusieurs pays. L’objectif de la mission est de contribuer au développement, à l’évolution et au maintien en conditions opérationnelles d’un Data Lake et de ses pipelines. Vos principales responsabilités : Concevoir et développer des pipelines Data sur Databricks, Python, Spark SQL et Azure Blob Storages . Participer aux déploiements sur les environnements de test et de production. Assurer la maintenance corrective et évolutive des composants logiciels en production. Collaborer avec les équipes de développement Web, IoT, SQL et autres pôles techniques. Apporter un support technique et participer aux choix d’architecture et de conception. Contribuer activement à une organisation en méthodologie Agile (SCRUM) au sein d’une équipe pluridisciplinaire.

Mission freelance
Data Engineer GCP confirmé
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.
Offre d'emploi
Chef de projet DATA
Contrainte forte du projet - Le livrable est TDB suivi des flux Compétences techniques Azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important Description détaillée Contexte de la mission Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus

Mission freelance
Data Analyst (3-6ans) E-Commerce, Marketing & Relation Clients (h/f) - (Full remote Maghreb)
Nous recherchons un Data Analyst expérimenté (h/f) pour rejoindre un grand acteur international du retail. 🎯 L’objectif ? Participer à la mise en place et à l’évolution de la Customer Data Platform (Salesforce Data Cloud) et du nouvel outil d’animation CRM (Salesforce Marketing Cloud Engagement) , afin d’améliorer la connaissance client et de personnaliser la relation sur tous les canaux digitaux. Tu évolueras dans un environnement à fort enjeu business et technologique, au croisement du Big Data, du CRM et du e-commerce , où la qualité et la performance de la donnée sont essentielles pour piloter la stratégie client du groupe. 🚀 Tes missions principales : Collecter et formaliser les besoins métiers liés à la connaissance et à l’activation client Concevoir, maintenir et optimiser les objets SQL dans BigQuery pour alimenter Salesforce Data Cloud et Marketing Cloud Engagement Garantir la qualité, la fiabilité et la cohérence des pipelines de données dans un environnement Cloud (GCP) Construire et optimiser des dashboards analytiques sous Looker / Looker Studio , en identifiant les KPI critiques pour le pilotage marketing et CRM Contribuer à la modélisation et au maintien du modèle de données CRM Participer à la migration des systèmes CRM et à la TMA des projets data (corrections, évolutions, documentation) Travailler en étroite collaboration avec les équipes Data Engineering, CRM, Marketing et Produit Être force de proposition pour l’amélioration continue et la performance des traitements analytiques 🔧 Environnement technique & outils : Langages & Data : SQL (expert), BigQuery, dbt, Dataform BI & Visualisation : Looker, Looker Studio, outils BI similaires CRM & Cloud : Salesforce Data Cloud, Salesforce Marketing Cloud Engagement DevOps & CI/CD : GitLab CI, Git Cloud : Google Cloud Platform (GCP), bonnes notions d’architectures Data Lake / Data Warehouse Méthodologies : Agile (Scrum, Sprint Planning, Backlog Refinement)

Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition

Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).

Mission freelance
DBA confirmé avec forte culture DevOps / Cloud
Dans le cadre de la modernisation et de l’optimisation de ses systèmes de données, notre client recherche un DBA confirmé disposant d’une expertise sur les bases de données et une solide culture DevOps/Cloud . Au-delà de l’administration classique, il s’agit d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. 🚀 Missions principales Administration & optimisation OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Migration & gestion AWS : RDS, Aurora MySQL, Redshift, Glue. Pipelines de données : conception, industrialisation et maintien de flux ETL/ELT robustes. Gouvernance des données : qualité, sécurité, conformité. Performance : optimisation des requêtes SQL, tuning, architectures de stockage. Disponibilité & résilience : mise en place et suivi du PRA/PCA, continuité de service. Automatisation & IaC : Terraform, Ansible, intégration dans les chaînes CI/CD. Monitoring & observabilité : Prometheus, Grafana, ELK. Collaboration transverse : équipes Data, BI et IT. Veille technologique : Cloud, Data Lake, Big Data. Gestion des schémas BDD via des outils comme Liquibase.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.