Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 80 résultats.
Freelance

Mission freelance
Développeur Mobile React Native & Data (Hybride Databricks/Spark)

LINKWAY
Publiée le
Android
Apache Spark
API REST

10 mois
400-450 €
Île-de-France, France
Nous sommes à la recherche d'un Développeur Mobile Senior spécialisé en React Native , possédant une double compétence rare et stratégique en Data Engineering (Databricks, Spark, SQL) . Développement Mobile & Architecture (React Native) : Concevoir l'architecture technique de l'application mobile en utilisant les meilleures pratiques React Native (Bridge, JSI, TurboModules). Développer des interfaces utilisateurs complexes et réactives, impliquant de la visualisation de données (graphiques dynamiques, cartes interactives, tableaux de bord). Gérer l'état de l'application de manière optimisée (Redux, MobX ou Context API) pour minimiser les re-renders. Assurer la compatibilité cross-platform (iOS/Android) et gérer le déploiement sur les stores (App Store, Google Play) ou via des outils de distribution interne (MDM). Ingénierie de Données & Intégration (Databricks / Spark / SQL) : Interagir directement avec l'environnement Databricks pour optimiser les requêtes qui alimentent l'application mobile. Utiliser Apache Spark pour effectuer des transformations de données ou des agrégations nécessaires avant l'envoi vers le mobile, afin d'alléger la charge de traitement côté client. Rédiger et optimiser des requêtes SQL complexes pour extraire des insights précis depuis le Data Lake, en garantissant des temps de réponse compatibles avec une expérience mobile. Participer à la définition des schémas de données pour assurer qu'ils soient "mobile-friendly" (payloads JSON optimisés, pagination efficace). Qualité, Performance et Méthodologie : Mettre en place des tests unitaires, d'intégration et E2E (Jest, Detox) pour sécuriser les livraisons. Diagnostiquer et résoudre les problèmes de performance (fuites de mémoire, lenteurs réseau, goulots d'étranglement SQL). Participer activement aux cérémonies Agile (Scrum/Kanban), aux revues de code et au mentorat technique des développeurs plus juniors. Assurer une veille technologique constante sur l'écosystème React Native et les évolutions de la plateforme Databricks.
Freelance

Mission freelance
CP Technique D365FO

Net technologie
Publiée le
Gestion de projet
Microsoft Dynamics

3 mois
Paris, France
Dans un contexte de croissance par acquisitions , le département Finance recherche un Technical Project Manager expert de Dynamics 365 F&O / Dynamics AX pour accompagner le déploiement de l’ERP au sein des entités acquises, stabiliser l’écosystème applicatif et contribuer activement à la transformation Finance . 🎯 Rôle clé : Pilotage et amélioration continue de l’architecture des systèmes financiers (Data Lake, Synapse, reporting, décommissionnement LCS) Évaluation technique de nouveaux outils Coordination des évolutions et incidents techniques avec les équipes IT internes et partenaires Suivi de l’implémentation des nouveaux outils de reporting
CDI

Offre d'emploi
Data Architect ERP Oracle

Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion

Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Freelance
CDI
CDD

Offre d'emploi
Dev react native / Data Engineer

IT CONSULTANTS
Publiée le
Méthode Agile

6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
Freelance

Mission freelance
Architecte Data Cloud Salesforce

JobiStart
Publiée le
Salesforce Sales Cloud

3 ans
400-550 €
Paris, France
Expert de la nouvelle plateforme Data Cloud de Salesforce, vous pilotez la stratégie d'unification des données clients en temps réel. Votre rôle consiste à concevoir l'architecture d'ingestion des données provenant de sources hétérogènes (Data Lakes, systèmes legacy, web/mobile) pour créer une "Golden Record" unique. Vous paramétrez les processus d'harmonisation, de réconciliation (Identity Resolution) et de segmentation avancée pour alimenter les cas d'usage marketing et service. Vous travaillez sur l'activation des données vers les différentes clouds Salesforce et les systèmes externes via des Data Actions. Vous garantissez la performance des flux de données à haute vélocité et veillez au respect des politiques de confidentialité. Véritable trait d'union entre le CRM et le Big Data, vous permettez à la banque de passer d'une vision transactionnelle à une vision client ultra-personnalisée et prédictive.
CDI

Offre d'emploi
Ingénieur Data / Data Scientist - Secteur Aéronautique (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Python
SQL

37k-43k €
Marignane, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance

Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance
CDI
CDD

Offre d'emploi
Dev react native / Data Engineer

IT CONSULTANTS
Publiée le
Méthode Agile

6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
Alternance

Offre d'alternance
Alternance - Data Engineer H/F/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD

Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Governance (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
SQL

38 400-44 400 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Consultant(e) D365 Logistique – Intégration API/EDI (H/F)

ASENIUM
Publiée le
Microsoft Dynamics

8 mois
400-550 €
La Défense, Île-de-France
Notre client recherche un consultant spécialisé en Dynamics 365 Finance & Operations (D365 F&O) – Module Logistique, pour développer une intégration API/EDI entre son ERP D365 et le WMS (Warehouse Management System) d’un fournisseur externe. L’objectif est d’automatiser les flux de données (commandes, stocks, traçabilité, sérialisation) entre les deux systèmes, en garantissant la fiabilité et la performance des échanges. Missions Principales Analyse & Conception Comprendre les besoins métiers (logistique, sérialisation, gestion des stocks). Cartographier les flux entre D365 Logistique et le WMS externe. Définir l’architecture technique (API REST/SOAP, EDI, webhooks, etc.). Rédiger les spécifications fonctionnelles et techniques. Développement & Intégration Développer l’API/EDI dans D365 F&O (X++, Power Platform, Azure Logic Apps, Azure Functions). Configurer les connecteurs (Azure Service Bus, Data Lake, etc.) si nécessaire. Tester les échanges (unitaires, intégration, performance). Documenter les développements et les procédures. Pilotage & Collaboration Travailler en étroite collaboration avec les équipes D365 , logistique et le fournisseur WMS . Assurer le suivi du projet (planning, risques, livrables). Former les utilisateurs finaux si nécessaire. Maintenance & Support Corriger les anomalies post-déploiement. Optimiser les performances si besoin.
CDI
Freelance

Offre d'emploi
Power BI and Microsoft Fabric Analytics Expert

VISIAN
Publiée le
DAX
Microsoft Power BI

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en Power BI et sur une plateforme d’analytique cloud de premier plan, incluant : Power BI Desktop, Power BI Service, Power BI Fabric et Report Builder Conception et optimisation de modèles sémantiques (schémas en étoile, modèles composites) Maîtrise avancée de DAX (patterns avancés, groupes de calcul, optimisation des performances) Power Query (M), avec un fort accent sur le query folding et la performance Expert reconnu en intégration de données et en mise en œuvre de pipelines sur une plateforme d’analytique cloud de référence, incluant : Extraction de données depuis de multiples sources (bases de données, Google Analytics, API, Databricks, Delta Sharing, OneLake) Ingestion de données depuis Azure Data Lake (Parquet, CSV, SQL Server) Transformation, préparation et stockage des données à des fins analytiques et de reporting Bonne maîtrise des solutions de thématisation Power BI, incluant : Création, personnalisation et application de thèmes Power BI Alignement des rapports avec l’identité visuelle de l’entreprise et les standards d’ergonomie Maîtrise avancée de la gouvernance et de l’architecture Power BI, incluant : Traçabilité des données ( data lineage ), étiquettes de sensibilité et configurations de sécurité Pipelines de déploiement et séparation des environnements Rôles administratifs Power BI et bonnes pratiques de gouvernance de la plateforme Maîtrise avancée dans la restitution d’analyses décisionnelles, incluant : Conception de modèles sémantiques en libre-service et de jeux de données réutilisables Développement de tableaux de bord et de rapports destinés aux décideurs Data storytelling et communication claire des analyses auprès des parties prenantes métier
CDI

Offre d'emploi
Data Engineer - CDI

VingtCinq
Publiée le
Azure
Databricks
DBT

Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Freelance

Mission freelance
[FBO] Ingénieur Full Stack – Cloud & DevOps Azure DOUVRIN - 1176

ISUPPLIER
Publiée le

5 mois
350-415 €
Douvrin, Hauts-de-France
Description:  Exemple d'activité à accomplir • Déployer une un mécanisme sécurisé d'authentication & autorisation selon les standards & la réglementation • Développer du CI/CD pipelines sur Azure DevOps pour les périmètres concernés • Assurer la conduite du périmètre  Attendus du profil : • Expérience dans l'industrie (si possible auto ou pharma) • Bilingue français / anglais • Posture professionnelle impeccable, capacité de pilotage de projet robuste (ex. scrum master), autonomie dans l'organisation et la gestion de ses activités, rigueur - méthodologie - proactivité - curiosité, capacité d'écoute / communication, capacité d'analyse & synthèse • Frontend: React, Redux, JavaScript, CSS, TypeScript, apollo-client • Backend: NodeJS, ExpressJS, TypeScript, GraphQL, FastAPI • Databases: PostgreSQL, Azure Data Lake Storage (ADLS) • Further Programming Languages: Python, SQL • Cloud Provider: Microsoft Azure • DevOps Tools: Azure DevOps • Containerization: Docker • Déplacement 5j/semaine à Lens |Langue : ANGLAIS | Lieu : DOUVRIN" Renouvellement possible
80 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous