L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 294 résultats.
Offre premium
Offre d'emploi
Directeur de Programme IT / Data (H/F)
ALTEN
Publiée le
Data Strategy
Gestion de projet
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique de migration des plateformes data et BI, ce poste joue un rôle central. Il implique une collaboration étroite avec des équipes techniques et métiers, et s’inscrit dans une dynamique de transformation du SI, avec des enjeux forts en gouvernance et coordination. Intervenir sur le pilotage transverse d’un programme de migration de plateforme data , en assurant la coordination des équipes techniques et métiers Contribuer à l’animation de la gouvernance du programme (comités de pilotage, comités techniques, suivi des décisions et arbitrages) Coordonner les différentes squads techniques et gérer les interdépendances entre les chantiers Intervenir dans la gestion de la relation avec les métiers , en animant les ateliers d’expression des besoins et en accompagnant la transformation des usages Contribuer à la gestion du changement et à la communication auprès des utilisateurs finaux Piloter le suivi budgétaire du programme (OPEX / CAPEX), l’allocation des ressources et les arbitrages nécessaires Contribuer à l’identification et au suivi des risques projet , ainsi qu’à la mise en place de plans de mitigation Garantir la qualité des livrables et le suivi des migrations de flux de données et de restitutions BI Piloter la stratégie de décommissionnement des usages obsolètes et la rationalisation des infrastructures Contribuer à la documentation, capitalisation et préparation des instances de gouvernance du programme
Mission freelance
Team Leader Data Engineering
Kamatz
Publiée le
Data cleaning
Data management
Snowflake
6 mois
Bordeaux, Nouvelle-Aquitaine
🔎 Freelance – Team Leader Data Engineering / Lead Data Engineer (H/F) 📍 Localisation : Bordeaux (3 jours sur site) 📄 Type de contrat : Freelance 📅 Démarrage : ASAP ⏳ Durée : Mission longue (6 mois renouvelables) Contexte Dans le cadre du développement de sa Data Platform logistique , notre client recherche un Lead Data Engineer / Team Leader Data Engineering pour accompagner l’évolution et la structuration de son équipe data. Rattaché au Head of Engineering Logistique , vous intervenez à la fois comme référent technique, facilitateur et leader d’équipe , afin de garantir la performance, la scalabilité et la fiabilité de la plateforme data . (équipe : 4 data engineers / 1 Lead developer) Vous travaillerez en étroite collaboration avec les équipes data, produit et métiers . Missions Leadership & management technique Encadrer une équipe de Data Engineers Accompagner la montée en compétences de l’équipe Faciliter la collaboration entre engineering, produit et métiers Apporter un support technique sur les problématiques complexes Data Engineering & Delivery Concevoir et optimiser les pipelines de données Garantir la qualité, la fiabilité et la performance des traitements Améliorer les processus de delivery data Mettre en place des pratiques d’ amélioration continue Data Platform & Architecture Participer aux décisions d’architecture data Assurer la scalabilité de la plateforme Optimiser la gestion et l’exposition des données Périmètre Data La plateforme data couvre : La production de KPI et indicateurs métiers logistiques Le partage de données entre filiales du groupe L’exposition de données et services data aux clients B2B Stack technique Data Platform Snowflake dbt Talend Apache Kafka Langages SQL Python Data Visualisation Microsoft Power BI Outils Jira Confluence
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes
FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management
1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Mission freelance
Data Custodian
MLMCONSEIL
Publiée le
Data governance
6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
FREELANCE – Data Manager (H/F)
Jane Hope
Publiée le
Data Strategy
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06) est à la recherche d’un Data Manager (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Traduire les besoins métiers mis en lumière par le business analyst en besoins techniques notamment en termes de requêtes SQL et de tableaux de bord à mettre en place · Être l’interface technique auprès du client : accompagner les clients ayant des lacunes en requêtes SQL et leur proposer des solutions · Occuper un rôle de data manager mentor pour transmettre l’information et accompagner les équipes · Echanger avec différents interlocuteurs, aussi bien techniques que métiers · Animer des ateliers pour présenter les modèles et faire monter en compétences l’ensemble des clients
Offre d'emploi
Data Scientist Junior (H/F)
Clostera
Publiée le
Data science
Île-de-France, France
Rejoignez-nous ! Aujourd’hui, nous recherchons un(e) Data Scientist Junior pour intervenir sur un projet clé de transformation analytique dans le secteur de la distribution. Ce que vous ferez : Modélisation et analyse Concevoir et développer des modèles de Machine Learning permettant de prédire l’appétence client aux offres promotionnelles. Explorer, transformer et enrichir de nouveaux jeux de données afin de les rendre exploitables pour les analyses et les modèles. Test & Learn Concevoir et analyser des protocoles d’A/B Testing afin d’évaluer l’efficacité des campagnes marketing. Mesurer l’impact réel des dispositifs promotionnels sur les comportements clients. Industrialisation & MLOps Participer à la mise en production des modèles et au monitoring de leur performance (dérive des données, qualité des scores). Contribuer à l’industrialisation des pipelines de traitement de données et des workflows analytiques. Data Engineering & Cloud Développer des traitements et automatisations en Python pour la manipulation et l’industrialisation des données. Concevoir et optimiser des requêtes et datasets via SQL / BigQuery . Déployer des solutions data sur une plateforme Cloud (GCP) . Conteneuriser les applications avec Docker pour garantir leur portabilité. Orchestrer des workloads avec Kubernetes . Planifier et superviser les pipelines data via Airflow / Cloud Composer . Gérer le versioning et la collaboration via Git . Votre positionnement vous permettra de travailler sur des projets innovants, d’interagir avec des équipes multidisciplinaires et d’exploiter votre expertise pour apporter une réelle valeur ajoutée. Environnement technique Langages : Python, SQL Cloud : Google Cloud Platform (GCP) Data : BigQuery Orchestration : Airflow (Cloud Composer) Conteneurisation : Docker Orchestration de conteneurs : Kubernetes Versioning : Git Méthodologie projet : Agile (Scrum, Sprint Planning, Backlog)
Mission freelance
Data Engineer Cloud Google
Mindquest
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-500 €
Boulogne-Billancourt, Île-de-France
Développement de pipelines de données via Cloud Composer / Airflow. Optimisation des performances et des coûts des traitements sur Google Cloud Platform (GCP). Participation aux choix d’outils et aux décisions d’architecture technique sur GCP. Développement de nouveaux traitements et applications data (BigQuery, DBT, Cloud Functions). Modélisation et structuration des données dans BigQuery. Maintien en condition opérationnelle des pipelines et traitements existants. Mise en œuvre de l’interopérabilité avec de nouveaux systèmes opérationnels. Proposition d’optimisations et simplifications techniques. Respect des standards de qualité et des bonnes pratiques data engineering de l’entreprise.
Offre d'emploi
Test Data Manager Senior/Expert (H/F)
HELPLINE
Publiée le
Data management
1 an
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans le cadre de la migration d’un système central de réservation, une fonction transverse de gestion des données de test : Test Data Manager (H/F) est mise en place pour organiser et structurer les jeux de données de test, et assurer la fiabilité et la sécurité des campagnes de tests end-to-end et métiers. Missions principales Pilotage TDM : Définir la stratégie de gestion des données de test, organiser et prioriser les demandes, suivre la qualité et la disponibilité, garantir un service fiable pour les équipes et les campagnes. Catalogue et gouvernance : Maintenir un catalogue centralisé, définir les règles d’usage et de versioning, assurer traçabilité, qualité et sécurité des données. Support aux équipes et E2E : Recueillir les besoins des équipes, coordonner la configuration des données, supporter les campagnes de test et sécuriser les parcours critiques. Gestion des prestataires : Piloter les partenaires, définir le cadre opérationnel, suivre performance et qualité, coordonner activités internes et externes. Industrialisation et amélioration continue : Identifier et mettre en œuvre des leviers d’automatisation et d’outillage, réduire les délais, optimiser les processus TDM. Onboarding, documentation et communication : Définir et diffuser les processus, accompagner l’intégration des équipes, produire la documentation de référence et assurer le reporting régulier.
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Mission freelance
Data Manager
RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management
6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
Mission freelance
Architecte Technique Data
CONCRETIO SERVICES
Publiée le
Data governance
Telecom
12 mois
390-600 €
Île-de-France, France
Nous recherchons pour le compte de notre client un architecte technique data pour transformer les données télécoms en informations exploitables, en concevant et optimisant des algorithmes d'analyse distribuée. Missions Analyser, qualifier et valider les données sources avec les équipes métiers Concevoir et implémenter les algorithmes distribués de valorisation et de détection d'anomalies Optimiser les traitements face aux contraintes de volumétrie et de délais Garantir la cohérence, la fiabilité et la véracité des résultats produits Étudier les corrélations et restituer les résultats de manière exploitable Accompagner les métiers dans la compréhension et l'interprétation des données Documenter les jeux de données, règles de calcul et usages associés Veiller au respect des exigences de cybersécurité
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
- Barème kilométrique - voiture de prêt
- Facturation électronique 06 : Une FE n’est pas un PDF par mail !!!
4294 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois