Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
DATA MANAGER
Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Mission freelance
Développeur Java / Big Data
A ce titre, nous cherchons un profil possédant la double compétence Data engineer et développeur backend Les activités attendues sont: - Ecrire les jobs spark de manipulation des collections de données pour des pipelines d'ingestion, de nettoyage, de preparation, d'enrichissement, de croisement des données - Développer des µService d'accès au données (API REST, serveur graphQL) pour mettre à disposition des applications internes ou directement à des clients externe - Développer jusqu'à la mise en production les traitements Big Data - Assurer la maintenance corrective des solutions Big Data développées - Collaborer avec l’ensemble des interlocuteurs concernés, transverses et métier Compétences attendues Java (J2EE / Jdk 21) Scala Spark / Spark Streaming Parquet Trino Delta Lake Kafka Docker – Kubernetes – Helm - Argo Workflow Web Services Rest / graphQL TU (JUnit / Mockito / PowerMock / ScalaMock) Git / Maven Les capacités d'innovation et de proposition seront appréciées. La maitrise de l'anglais est indispensable. La mission est prévue sur le reste de l'année 2025

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée - 12 mois - Lille
Data Scientist - Lille - 12 mois Un de nos importants clients recherche un Data Scientist pour une mission de 12 mois sur Lille. Descriptif ci-dessous: 🚀 Senior Data Scientist / Software Engineer – Intelligence Artificielle Avancée 📍 Localisation : Lille (flexible avec un présentiel de 3 jrs par semaine sur site) 📅 Démarrage : ASAP 💼 Type de contrat : Mission longue / Freelance ou CDI/CDD selon profil Créez des solutions IA de nouvelle génération pour transformer l’entreprise Vous êtes passionné(e) par l’intelligence artificielle, les architectures LLM (Large Language Models) et le développement de solutions scalables à fort impact ? Nous recherchons un(e) Senior Data Scientist / Software Engineer pour rejoindre notre équipe technique et participer à la conception de solutions IA robustes, innovantes et alignées sur nos enjeux stratégiques. 🔍 Votre mission Intégré(e) au cœur d’une équipe tech agile et ambitieuse, vous piloterez de bout en bout la création d’applications IA modernes basées sur les dernières avancées en deep learning et en engineering LLM. Vos responsabilités principales : 🧠 Conception & Développement de solutions IA Développer des applications IA avancées avec Python, Keras, TensorFlow, LangGraph, LangChain et ZenML Concevoir des infrastructures scalables et performantes, répondant aux normes de documentation et qualité de code 🧩 Pilotage autonome de projets IA Gérer de façon indépendante le cycle complet des projets : design, développement, mise en production Collaborer avec les équipes métier pour s’assurer que les solutions créées répondent à leurs besoins réels 🎯 Expertise et accompagnement Traduire les problématiques métier en solutions IA pertinentes Accompagner les utilisateurs internes dans l’adoption, la compréhension et l’utilisation des outils développés 🛠️ Compétences requises ✅ Python (niveau expert) – Indispensable ✅ Keras / TensorFlow – Expertise avérée ✅ LangChain et LangGraph – Maîtrise avancée requise ✅ ZenML – Compétence confirmée attendue ✅ Documentation technique rigoureuse et respect des standards de développement ✅ Français courant et anglais professionnel (environnement bilingue) 👤 Profil idéal Vous justifiez d’une solide expérience dans la création de solutions IA et de pipelines ML/LLM complexes Vous êtes autonome, proactif(ve), rigoureux(se) et orienté(e) business Vous êtes capable d’articuler des concepts techniques complexes à des interlocuteurs non techniques Vous avez une approche produit et une culture du delivery dans des environnements agiles 🚧 Ce que vous livrerez Des applications IA prêtes à l’emploi, robustes et documentées Une infrastructure data/ML scalable intégrée dans l’environnement technique de l’entreprise Une documentation claire respectant les standards internes Une valeur métier mesurable via l’adoption réussie des solutions déployées ✨ Pourquoi nous rejoindre ? Travailler sur des technos de pointe en IA appliquée (LLM, framework LangChain/Graph, ZenML…) Être acteur d’une transformation tech ambitieuse avec de forts enjeux business Évoluer dans un environnement agile, collaboratif et stimulant Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Date engineer Dataiku
Objectifs : Le bénéficiaire souhaite une prestation d’accompagnement pour le pipeline de traitement des données de l’équipe (suivi de la production des données, maintenance du pipeline, améliorations, intégration des nouveaux besoins). Les activités type seront celles d’un Data Engineer : • Conception et architecture des systèmes de données • Collecte et intégration des données • Nettoyage et transformation des données • Optimisation des performances • Suivi des traitements , analyse des erreurs et correction de bugs, lancement de traitements de reprises • Maintenance des systèmes de données et support technique en cas de problèmes en concertation avec l’ingénieur Devops de l’équipe. • Collaboration avec les data scientist, analystes de données et autres parties prenantes pour comprendre leurs besoins et fournir des solutions adaptées. • Documentation des travaux réalisés Une période de recouvrement d’activité aura lieu en début de prestation. Elle permettra d’examiner les pratiques actuelles et de proposer des actions d’amélioration à mettre en oeuvre dans la suite de l a mission.

Mission freelance
Recherche Consultant(e) Snowflake
Dans le cadre de la transformation Data de notre client / entreprise, nous recherchons un Développeur Snowflake afin de participer à la mise en place, l’optimisation et la maintenance de notre plateforme cloud dédiée à la gestion et à l’exploitation des données. Vous interviendrez dans une équipe Data pluridisciplinaire (Data Engineers, Data Analysts, Architectes) sur des projets stratégiques : migration de bases de données, modélisation de données, industrialisation des flux, création de pipelines et dashboards.

Mission freelance
Data ingénieur AWS
Pour le besoin de mon client basé en Ile de France , je suis à la recherche d'un Data Engineer AWS expérimenté. Tâches Mettre en place la synchronisation des données du datalake on-premise vers AWS via DataSync , avec contrôles d’intégrité et suivi des transferts. Structurer le datalake AWS (S3) en plusieurs zones (Raw, Cleansed, Curated) et intégrer un catalogue avec Glue pour la gouvernance. Déployer et configurer Starburst/Trino pour l’accès fédéré aux données et l’optimisation des requêtes analytiques. Implémenter les use cases Data/IA en utilisant Dataiku + services AWS (Bedrock, RAG, SageMaker si besoin) pour développer les modèles et orchestrer les pipelines. Assurer la mise en production et la supervision (CloudWatch, CloudTrail, IAM sécurisés, tests de charge, monitoring des coûts et résolution des problèmes résiduels). Compétences Demandées Date de début souhaitée : début septembre Environnement technique : AWS solutions Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus

Offre d'emploi
Data Architect GCP - Paris
Tu corresponds au/à la Data Engineer GCP que nous recherchons si : - Tu as une expérience significative de 5 minimum ans ou plus de projets Data : architecture, traitement ou analyse de données. - Tu as une expérience sur GCP ( + de 5 ans) et les services Data associés. (Big Query, Dataform, Looker Studio, Pub Sub) - Tu maîtrises au minimum un langage de programmation appliqué à l’analyse de données (Scala, Python, Java…). - Tu possèdes de solides compétences en SQL - Tu as de bonnes compétences dans l’architecture des systèmes, bases de données, méthodologies d’analyse. Tu sais ainsi préconiser les bons outils/technologies selon les contextes de tes clients. - Tu es sensible à la Business Intelligence , au Big Data et au Machine Learning - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum/Agile - Une compétence sur les outils d’ingestion de données low-code type Talend / Snaplogic est un plus - Enfin, tu sais être force de proposition et as un esprit de synthèse.

Offre d'emploi
Product Owner Intelligence Artificielle (H/F)
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la Finance, un ou une : Product Owner Intelligence Artificielle (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Rattaché au Responsable SI & Projet, vous pilotez la feuille de route IA de l'entreprise. Véritable chef d'orchestre, vous définissez, priorisez et délivrez les produits et fonctionnalités basés sur l'IA, en alignant les enjeux métiers, techniques et éthiques. Vous serez le garant de la valeur apportée par l'IA, et vous instaurez une culture Data-Driven et responsable. A ce titre, vos principales missions seront : - Gestion le Back Log IA : centraliser, prioriser et structurer les demandes IA (nouveaux cas d'usage, évolutions de modèles, améliorations) dans un Back Log clair et actionnable ; - Coordonner des intervenants : orchestrer la collaboration entre consultants externes, Data Scientists, Data Engineers, Développeurs et UX Designers pour assurer la cohérence et la pertinence des livrables ; - Rédiger les spécifications fonctionnelles de manière précise (user stories, scénarios de tests) intégrant les exigences métiers, techniques et réglementaires liées à l'IA ; - Suivre les projets et release management : planifier les livraisons, suivre l'avancement (jalons, sprints, KPIs) et valider les releases IA auprès des parties prenantes ; - Pilotage les tests et validations : coordonner les phases de tests (validation des performances modèles, tests d'intégration, tests utilisateurs) et garantir la conformité des solutions IA ; - Assurer une veille technologique et benchmarks sur le périmètre, surveiller les innovations IA, évaluer de nouvelles technologies et proposer des Proofs of Concept pour anticiper les évolutions du marché ; - Piloter la qualité et l'éthique : s'assurer du respect des bonnes pratiques MLOps, de la gouvernance des données (biais, confidentialité) et des exigences RGPD, …

Offre d'emploi
Data Analyst
Descriptif du poste L'équipe People Analytics est le centre d'expertise Analytics & AI qui accompagne les équipes RH du Groupe dans l'exploitation des données pour aider au pilotage stratégique des activités et à l'amélioration de l'expérience employée. Elle construit des produits analytiques et d'IA, en agile, visant à : aide aux prises de décisions stratégiques pour la fonction, amélioration de l'expérience des collaborateurs du Groupe, contribution au dialogue avec les parties prenantes externes en rendant compte de nos actions RSE RH en tant qu'employeur responsable, digitalisation des processus RH. Missions principales En tant que Data Engineer / Data Analyst, la mission sera de : Comprendre les besoins exprimés par la direction générale, les équipes RH, ou le business, et les traduire en roadmap analytique (périmètre d'analyse, métriques…) Comprendre et challenger les développements déjà existants sur Alteryx Intégration des données dans la plateforme Data de l'équipe (environnement Oracle) Préparation et structuration de la donnée sous Dataiku selon les règles définies par l'équipe Construire les indicateurs nécessaires aux dashboards Développement des dashboards (Power BI et Tableau) et analyses (préparation, exploration, analyse descriptive, visualisation des données…, clustering, machine learning, NLP…) Mettre en place les contrôles nécessaires Maîtrise des problématiques de performances des dashboards avec gestion des droits et des accès sous Tableau Server Suivi de l'industrialisation des dashboards Rédaction de la documentation liée au produit : dictionnaire de données, modes opératoires, wiki, etc Collaboration Travaille en constante collaboration avec les autres membres de l'équipe (Product Owner, Data Engineers, Data Quality Analyst, Data Project Manager, Data Scientists) et être amenés à partager les connaissances en anglais avec les collaborateurs People Analytics basés à Lisbonne.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.

Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Mission freelance
CHEF DE PROJET DATA
- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables.

Mission freelance
POT8555-Un consultant Snowflake expert Sur Courbevoie
Almatek recherche pour l'un de ses clients, Un consultant Snowflake expert Sur Courbevoie. *Objectifs et livrables: Concevoir et proposer des solutions orientées Data en utilisant les technologies Cloud Azure dans le cadre de notre framework Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux meilleures pratiques architecturales Concevoir et développer des API / microservices afin d’enrichir notre framework de solutions Soutenir la stratégie d’architecture orientée événements basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en libre-service Contribuer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et de l’organisation Data & Analytics dans son ensemble Être le référent de l’équipe sur tous les sujets liés au cloud Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au cloud Soutenir l’équipe Sécurité sur les sujets associés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes
Mission freelance
Tech Lead Data Databricks / Azure
Nous recherchons un Tech Lead Data expérimenté pour piloter l’architecture, la conception et la gouvernance d’une Data Platform moderne construite sur Azure et Databricks . Environnement exigeant et stimulant, avec des projets stratégiques autour du traitement de données à grande échelle, de la qualité et de l’industrialisation. ✅ Piloter les choix techniques autour de Databricks & Azure Data Services ✅ Encadrer les équipes de Data Engineers (code review, support, best practices) ✅ Industrialiser les pipelines (CI/CD, monitoring, sécurité, catalogues) ✅ Accompagner la mise en œuvre du Unity Catalog ✅ Assurer la scalabilité et la performance des traitements ✅ Collaborer avec les architectes, la DSI, les métiers et le cloud center of excellence
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.