Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 124 résultats.
Freelance

Mission freelance
Mission Longue de Consultant Snowflake

SKILLWISE
Publiée le
Architecture
AWS Cloud
Azure

3 mois
180-680 €
Paris, France

Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Freelance

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)

Jane Hope
Publiée le
Apache Spark
Scala

3 mois
400-550 €
Rennes, Bretagne

Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Freelance

Mission freelance
DEVELOPPEUR SSIS CONFIRME

PARTECK INGENIERIE
Publiée le
Microsoft SQL Server
Microsoft SSIS

12 mois
400-550 €
Paris, France

Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)

Jane Hope
Publiée le
Apache Spark
Scala

3 mois
400-550 €
Nantes, Pays de la Loire

Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Freelance

Mission freelance
PRODUCT OWNER DATA  BI (Pilotage opérationnel & Vision de transformation BI)

KEONI CONSULTING
Publiée le
BI
Pilotage

18 mois
100-500 €
Paris, France

CONTEXTE Dans le cadre de la transformation data de l’entreprise, l’équipe BI & Analytics est en cours de réflexion sur l’adaptation et la modernisation de son offre de service BI avec l’adoption potentielle de nouvelles solutions d’ici à fin d’année 2025. Actuellement, les outils sont SAS Guide, SAS VIYA, BO et Qlik sense. Dans sa transformation, l’entreprise a fait le choix d’un data hub GCP. Recherche Product Owner BI (Pilotage opérationnel & Vision de transformation BI) MISSION Dans le cadre d’un remplacement de 6 mois, nous recherchons un Product owner BI expérimenté capable d’assurer le pilotage produit en garantissant la livraison continue des cas d’usage fonctionnels et poursuivant la transformation des outils et usages BI (vision cible, montée en compétences, expérimentation d’outils). L’équipe se compose de 3 personnes au support outils BI, 3 Tech Leads, 3 Data Analystes et 1 Responsable d’équipe aussi SM. La mission reposera sur le : • Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) • Vision stratégique BI (choix d’outils BI, plan de transformation, montée en compétences) Périmètre de la mission 1. Pilotage produit & backlog BI • Recueillir, analyser et formaliser les besoins métier en lien avec les directions utilisatrices • Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité • Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) • Suivre l’avancement des développements et valider les livrables avec les utilisateurs et BL 2. Animation agile & coordination fonctionnelld • Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) • Travailler au quotidien avec les développeurs, Tech Leads et Data Analystes • Porter la voix du métier et des business line au sein de l’équipe 3. Qualité fonctionnelle et validation métier • Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés • Valider les livrables BI avec les utilisateurs finaux • Documenter les solutions de manière claire et accessible 4. Vision stratégique & transformation BI • Apporter son expérience aux équipes data et à la hiérarchie sur une vision stratégique et transformation de la BI • Identifier les cas d’usage pertinents pour tester de nouveaux outils BI en coordination avec les métiers et Business Line • Piloter les POCs : cadrage, expérimentation, retour d’expérience • Construire un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) • Contribuer à la stratégie de gouvernance et de self-service BI 5. Interface métier & conduite du changement • Animer les ateliers de cadrage fonctionnel avec les métiers • Présenter les livrables de façon claire, orientée valeur • Être ambassadeur de la transformation BI auprès des directions utilisatrices • Suivre les retours utilisateurs et les indicateurs d’adoption

Freelance

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)

Cherry Pick
Publiée le
DBT
SQL

12 mois
470-530 €
Lille, Hauts-de-France

Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

CDI
Freelance

Offre d'emploi
Data Engineer Stambia (F/H)

CELAD
Publiée le
Stambia

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting

Freelance

Mission freelance
Administrer DBA/Architect Snowflake

Comet
Publiée le
Snowflake
SQL

12 mois
400-480 €
Île-de-France, France

🎯 Mission Principale Expert technique Snowflake au sein de l'équipe Architecture & Data Engineering, vous êtes responsable de la maintenance et évolution de la Data Platform qui sert l'ensemble des équipes du groupe (Analytics, Data Science & IA, CRM, Pub, Audience, Finance, Streaming). 🔧 Responsabilités Clés Architecture & Stratégie Définition et revue d'architecture du Data Warehouse/Data Platform Développement et maintenance de la stratégie RBAC Formalisation et planification de la roadmap produit (3, 6, 12 mois) Modernisation des paradigmes d'ingestion, transformation et exposition de données Performance & Optimisation Revues de performances SQL et infrastructure Suivi de coûts par application Mise en place de solutions de monitoring et d'alerting Revues de code SQL Support & Accompagnement Support quotidien sur la plateforme Snowflake Référent technique pour les Data Engineers et Data Analysts Accompagnement des équipes sur la faisabilité des projets Facilitateur entre équipes Data, AdTech et métier ⚙️ Stack Technique Compétences Impératives Snowflake - Expert SQL Avancé - Expert Architecture Data Cloud - Expert Technologies Utilisées Python RBAC Terraform Azure (cloud) Azure DevOps / JIRA / Confluence Snowflake Clean Room (plus) 🌍 Environnement de Travail Méthodologie : Agile Scrum Culture : DevSecOps Équipe : 15 personnes Langues : Français courant (impératif), Anglais professionnel ✨ Profil Recherché Qualités Personnelles Bon relationnel et capacité d'adaptation Excellente communication orale et écrite Esprit de veille technologique Aptitude au travail en équipe Compétences Transversales Maîtrise des méthodes Agiles Culture DevOps confirmée Gestion de projet technique Capacité à garantir la pérennité des développements 🎪 Enjeux du Poste Plateforme critique : Infrastructure data stratégique pour le groupe Innovation continue : Exploitation des dernières fonctionnalités Snowflake Optimisation : Maîtrise des coûts et performances Transversalité : Interface entre multiples équipes métier

CDI

Offre d'emploi
Data Engineer

TOHTEM IT
Publiée le

35k-42k €
Paris, France

Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Freelance

Mission freelance
Data Manager

ALLEGIS GROUP
Publiée le
SQL
UML

3 mois
Île-de-France, France

TEKsystems echerche pour le compte de son client : Un(e) Data Manager: Un chef d’orchestre de la donnée dans une organisation. Il ne code pas forcément au quotidien, mais il comprend les enjeux techniques et stratégiques liés à la data. Dans ton cas, il devra :🎯 Missions principales Structurer et piloter la gouvernance des données : garantir la qualité, la sécurité, et la traçabilité des données. Coordonner les équipes data : data ingénieurs, analystes, et architects. Définir les modèles de données : en lien avec les besoins métiers et les outils comme Snowflake. Mettre en place les premiers pipelines de données : pour alimenter les dashboards Tableau et les apps Streamlit. Traduire les besoins métiers en solutions data : notamment dans le cadre du CRM et des outils comme JIRA.

Freelance

Mission freelance
Business Analyst DATA / BI – Trade Finance & Cash (SQL, Modélisation, Power BI)

CAT-AMANIA
Publiée le
Agile Scrum
BI
SQL

2 ans
360-460 €
Île-de-France, France

Nous recherchons un Business Analyst spécialisé DATA & BI pour intervenir sur des projets stratégiques liés aux métiers Trade Finance et Cash Management . Vous rejoindrez une équipe en charge de la mise en place d’un Data Lake et de la valorisation des données via la Business Intelligence. Vos missions : Participer à la migration des données depuis l’infocentre vers le Data Lake. Modéliser les données à ingérer et les rendre exploitables pour le métier. Rédiger les spécifications fonctionnelles et techniques liées aux besoins des métiers. Suivre et tester les ingestions de données et les dashboards. Collaborer en mode Agile (Scrum) avec les équipes métiers et IT. Contribuer à l’amélioration continue de la qualité des données et de la production. En bonus : concevoir et mettre en place des dashboards Power BI orientés utilisateur.

Freelance
CDI

Offre d'emploi
Data Engineer GCP (F/H)

CELAD
Publiée le
Google Cloud Platform (GCP)

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

124 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous