Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 673 résultats.
Freelance

Mission freelance
Data Engineer Azure Data Factory - CosmosDB

Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Freelance

Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)

Signe +
Publiée le
Dataiku

12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Freelance

Mission freelance
Chef de projet data migration (H/F)

Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration

9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Freelance
CDI

Offre d'emploi
Pilote de la Feuille de Route Sécurité Data

CAT-AMANIA
Publiée le
Agile Scrum

12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Freelance

Mission freelance
Product Leader Data Looker et GCP

ODHCOM - FREELANCEREPUBLIK
Publiée le
Looker Studio

12 mois
400-550 €
Boulogne-Billancourt, Île-de-France
Contexte Projet/Produit Présentation générale Le Sales & Marketing Data Hub (SMDH) est un écosystème de données transverse conçu pour centraliser, harmoniser et exposer l’ensemble des données Sales & Marketing du Groupe Renault. Il constitue l’un des piliers de l’entité métier Data Power Unit (DPU) et joue un rôle clé dans la stratégie data du groupe. Créé pour maximiser la valeur business issue de la donnée, il vise à unifier des données dispersées dans divers silos, les rendre cohérentes, fiables, documentées et activables pour un large périmètre d’usages. Objectifs du SMDH : • Centraliser, unifier et standardiser les données issues de multiples sources (CRM, distribution, digital, après‑vente, données tierces…) • Offrir des datasets "gold" dans le datalake (DLK) prêts à l’emploi pour répondre à des cas d’usage analytiques, opérationnels ou marketing • Améliorer l’efficacité commerciale en permettant segmentation, scoring, dashboarding, analyses multicanaux, etc. Prestation attendue : L’objectif de la prestation au sein de la direction informatique Sales & Distribution est de : - assurer le pilotage de l’outil sur le périmètre existant ainsi que sur les nouveaux périmètres en contribuant à l’intégration de nouvelles sources de données ou à l’extension vers de nouveaux uses cases métier dans le respect des standards de qualité existants et de la réglementation RGPD. - contribuer au pilotage de la mise en place du semantic layer sur le périmètre « Sales & Marketing » via la technologie LookML. Ce semantic layer étant la cible de l’entreprise pour faciliter l’accès à la donnée via un langage métier unifié et documenté pour accélérer la production et l’industrialisation des cas d’usage analytiques et marketing. La prestation devra assurer les tâches suivantes : - Pilotage du Produit o Contribuer à la définition, au challenge et à l’évolution de la vision produit et de la roadmap, en lien étroit avec le Product Owner o Garantir la maximisation de la valeur générée par le produit et son alignement avec les besoins utilisateurs et métiers - Gouvernance et coordination o La coordination des équipes offshore IT (Centre RNTBCI en Inde), métiers et partenaires, en anticipant les risques, obstacles et dépendances o L’animation des instances de pilotage et la consolidation du reporting d’avancement, de coûts et de qualité - Leadership Agile o L’application des pratiques agiles Scrum et la facilitation des rituels o La promotion des valeurs Agiles et d’une dynamique d’amélioration continue au sein de l’équipe - Suivi opérationnel et qualité de service o Le pilotage de la qualité opérationnelle du produit (disponibilité, incidents, obsolescence, continuité) et des données o La supervision du cycle de vie complet du produit, de la conception à la mise en production et au maintien en conditions opérationnelles - Expertise technique et alignement SI o Appuyer les équipes dans les choix techniques, l’architecture et la cohérence du SI o Mettre en place les nouvelles solutions (LookML) dans le respect des guidelines définies par la direction architecture & data Livrables Les livrables suivants sont attendus : - Roadmap détaillée et mise à jour régulière. - Reporting d’avancement et de performance. - Plan d’amélioration continue et gestion des risques. - Documentation produit (fonctionnelle, technique, opérationnelle) - S’assurer du respect des engagements retenus lors des portfolios synch
Freelance

Mission freelance
Data Product Owner – Intermodal

LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA

1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Azure

Cherry Pick
Publiée le
Azure
Azure Data Factory
Python

12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Freelance
CDI

Offre d'emploi
Business Analyst Référentiels

VISIAN
Publiée le
Data governance
Master Data Management (MDM)

1 an
40k-45k €
400-620 €
Paris, France
Description du poste Une filiale spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises recherche un business analyst pour la mise en œuvre de référentiels. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, etc. Le projet de modernisation du système d'information sur l'activité Leasing porte un chantier de relocalisation de plusieurs référentiels du système opérationnel actuel vers une plateforme MDM (EBX orchestra) : Tiers, Réseau partenaire, Produits financiers, Produits commerciaux, Conventions et Organisation interne. Missions Intégration à la squad « Référentiels » Compréhension et analyse des besoins liés à l'usage de ces référentiels, identification des données associées Conception des modèles conceptuels et physiques Rédaction des spécifications fonctionnelles et User stories Animation de la relation avec les intervenants métier, dev et tests pour assurer une bonne communication entre elles et leur compréhension mutuelle Participation aux tests, et accompagnement du métier dans la réalisation des tests utilisateurs Vérification de l'adéquation de la solution avec le besoin du Métier Participation à la formation des utilisateurs, à la production et à la fourniture de documentation, accompagnement de la conduite du changement
CDI
Freelance

Offre d'emploi
DevOps streaming Data - (H/F)

SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps

1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Freelance
CDI

Offre d'emploi
Développeur Java Full Stack confirmé (H/F)

CITECH
Publiée le
Java
Javascript
Spring Data

12 mois
45k-50k €
330-390 €
Quimper, Bretagne
CITECH recrute ! 👌 👍 Nous recherchons un(e) Développeur Java Full Stack confirmé (H/F) 🚀 🌟 Dans le cadre du développement et de la maintenance de solutions applicatives à forts enjeux métier, nous souhaitons renforcer nos équipes avec un profil technique confirmé, capable d’intervenir sur l’ensemble du cycle de vie des applications. Le poste s’inscrit dans un environnement collaboratif, orienté qualité et bonnes pratiques de développement. 🌟 🎯 Objectifs de la mission : Participer à la maintenance corrective et évolutive des applications Concevoir et développer des solutions performantes et maintenables Garantir la qualité du code et la fiabilité des livraisons Contribuer à l’amélioration continue des pratiques techniques 🙌🔽 Vos principales missions : 🔽🙌 Participer à la maintenance corrective et évolutive des produits Concevoir la solution en collaboration avec l’analyste fonctionnel et l’architecte applicatif Développer des fonctionnalités full stack (backend Java / frontend JavaScript) Réaliser des revues de code et partager les bonnes pratiques Concevoir et mettre en œuvre des tests unitaires automatisés Contribuer à la performance, la sécurité et la maintenabilité des applications
CDI

Offre d'emploi
Proxy Product Owner Data - Finance Transformation (Senior) H/F

█ █ █ █ █ █ █
Publiée le
Scrum

70k-80k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
CDI

Offre d'emploi
Data engineer H/F

HAYS France
Publiée le

50k-60k €
Nantes, Pays de la Loire
Rattaché au Responsable Industrielle, vos missions sont les suivantes : Construire et piloter la stratégie d'exploitation des données industrielles, Prioriser les demandes des utilisateurs et traiter les incidents, Maintenir et faire évoluer l'architecture Edge (Hybride On Premise et Cloud) nécessaire à la valorisation de données, Gérer et organiser les données industrielles et les flux de données entrants et sortants (SQL Server, SSIS, Historian), Consolider les différentes sources de données On Premise dans la Datalake Azure et Cubes de données, Participer à la conception des reportings en lien avec les services métiers (amélioration continue, process, qualité, production…), Optimiser et pérenniser les systèmes existants en temps réel, Assurer l'accompagnement des utilisateurs clés.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1673 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous