Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 86 résultats.
Freelance

Mission freelance
Data Analytics Enigneer

Phaidon London- Glocomms
Publiée le
AWS Cloud
Data visualisation
Python

6 mois
400-550 €
Paris, France
Concevoir, développer et optimiser des modèles de données pour l’analyse et le reporting Mettre en place et maintenir des pipelines de données robustes et performants Collaborer avec les équipes data et métiers pour comprendre les besoins et les traduire en solutions analytiques Garantir la qualité, la cohérence et la documentation des données Contribuer aux projets de visualisation de données, notamment via Tableau Participer à l’évolution des bonnes pratiques et des standards internes en analytics engineering
Freelance

Mission freelance
BA/Data analyst 

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Shell

5 mois
350 €
Val-de-Marne, France
BA/Data analyst pour mon client Entité : Banque Site : Val de Marne; 2 jours/semaine obligatoire sur site Prix d’achat max : 355 euros Date de démarrage : asap Date de fin : 01/07/2027 Contexte : Au sein du pilier RPBI (« Retail, Private Banking & Insurance »), RPBI Business Solutions , gère les systèmes d’information du Réseau Private Banking . La direction RBS/DMP est en charge de la Data, de sa gouvernance, ainsi que des projets et applications des filières Marketing et Pilotage. Le Chapter DEV intervient dans le développement des applications des différentes Tribes, en intégrant les compétences techniques nécessaires au sein des Feature Teams. Mission : Le Bénéficiaire , en charge de l'application/entrepôt décisionnel CMW souhaite une expertise pour sa Feature Team , notamment sur le sujet NDOD ( Nouvelle Définition du Défaut ) mis en place depuis quelques années mais générateur de beaucoup d'analyses et/ou évolutions ==> sujet "sensible" sur lequel les demandes d'analyses arrivent au fil de l’eau, d'où capacité à pouvoir gérer une certaine pression. À ce titre, le bénéficiaire souhaite bénéficier de l'expertise du prestataire en termes de Data Analysis. Dans ce cadre, la prestation consiste à contribuer à/au(x): Compréhension des besoins métier Spécifications fonctionnelles générales et détaillées dans le respect des règles d'urbanisme (DCO, CFG, CTG) Contribution aux ateliers avec les Métiers Estimation des charges et délais des évolutions du périmètre Assistance aux comité opérationnels Support à l'entité de développement situées à Bangalore dans la mise en oeuvre Support aux Métiers, requêtage et extractions ponctuelles, réponse aux exigences réglementaires. Mise en place du plan de qualification et sa validation Profil : BA/Data analyst pour la Société Générale Nombre d’années d’expérience : + 8 ans Expérience techniques requises Expertise de l'ETL Datastage fortement recommandée (min 2 ans) Maitrise du SQL indispensable (10 ans) Expertise en Shell, sur l'ordonnanceur CTRL M, et sur SNOWFLAKE seraient les bienvenues. Notions d'Agilité Environnement anglophone Modélisation en étoile (5ans) Banque de Détail / Risque de Crédit (8 ans)
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Chef de projet BI

Comet
Publiée le
Data Warehouse
Databricks
DAX

3 mois
400-610 €
Île-de-France, France
Contrainte forte du projet : Connaissance Power BI, MOA, modélisation datawarehouse Compétences techniques : Modélisation datawarehouse - Expert - Impératif Power BI - Expert - Impératif Gestion de projet - Expert - Impératif MOA - Expert - Impératif Connaissances linguistiques : Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée : Dans le cadre de la modernisation de notre stack décisionnelle, nous lançons un projet d'envergure visant à migrer l'ensemble de notre écosystème SAP BusinessObjects vers Microsoft Power BI. Nous recherchons un(e) Chef de Projet capable de piloter cette transition stratégique, de la phase de cadrage jusqu'à l'adoption finale par les métiers. Les missions : Cadrage : Inventorier l'existant (Univers, rapports WebI), identifier les rapports critiques à migrer, ceux à supprimer et ceux à optimiser. Pilotage de la Migration : Définir le planning, gérer le budget, coordonner les ressources techniques (Analytics Engineers, développeur Power BI) et assurer le suivi des jalons. Conception de la Cible : Superviser la modélisation des nouveaux jeux de données (Datawarehouse, Datasets) et la création des dashboards sur Power BI Service. Gouvernance : Mettre en place les bonnes pratiques de développement, de sécurité et d'administration de la plateforme Power BI. Accompagnement au Changement : Animer les ateliers avec les utilisateurs métiers, rédiger les documentations et assurer la formation des utilisateurs. Profil recherché : Une forte expertise sur la BI est impératif ( modélisation d'un datawarehouse, méthode d'historisation, exploration de la donnée) Maîtrise des langages SQL et DAX est indispensable. Maitrise de databriks ou d'un outil équivalent (SQL Server, Snowflake). Connaissance BO et du développement de rapport. Maitrise du cycle en V et de la méthode Scrum. Pédagogie, esprit d'analyse, et capacité à traduire des besoins métiers complexes en solutions techniques simples sont attendus pour ce poste. Définition du profil : Il définit, met en oeuvre et conduit un projet BI dans le but d'obtenir un résultat optimal et conforme aux exigences métiers formulées et validées par ou pour le commanditaire en ce qui concerne la qualité, les performances, le coût, le délai et la sécurité.
CDD
CDI

Offre d'emploi
Data Engineer confirmé H/F

SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI

12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Freelance
CDI

Offre d'emploi
Développeur back NodeJS

ICSIS
Publiée le
CI/CD
Git
Google Cloud Platform (GCP)

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Développement back - Run & Build - Développement d'APIs - Recueil des besoins - Maintenir les applications en cours - Assurer la qualité des applications à venir - Apporter votre support aux membres de l’équipe sur les bonnes pratiques de développement et de méthodologie - Mission basée en métropole lilloise avec télétravail partiel Compétences demandées : - Expériences significatives comme développeur NodeJS - Front un + (VueJS, AngularJS, ReactJS ...) - Connaissances de la data (Snowflake, GCP BigQuery, Stambia, DBT ...) - Outils de CI/CD - Maîtrise et pratique de l’Agile - Anglais un+
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Freelance

Mission freelance
Business Analyst santé Data DBT Snowflake – Données santé/cliniques et opérationnelles - remote

WorldWide People
Publiée le
Business Analysis

6 mois
Lyon, Auvergne-Rhône-Alpes
Business Analyst – Données cliniques et opérationnelles Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires . Un Business Analyst pour soutenir des initiatives impliquant des données cliniques et opérationnelles (MDM, SSU, CTMS, Site Connect, CRM, supply chain, finance, ERP). Le consultant agira comme interface entre les parties prenantes métier, les équipes cliniques et les équipes data/ingénierie , afin de traduire les besoins métier en exigences data exploitables. Responsabilités principales Recueillir, analyser et documenter les besoins métier liés aux cas d’usage de données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires à destination des équipes data engineering et analytics. Contribuer aux activités de qualité des données, traçabilité (data lineage) et gouvernance (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques et opérationnelles et garantir l’alignement entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints via Jira ; documenter les processus dans Confluence . Compétences requises Solide expérience des standards de données de santé / cliniques (HL7, FHIR, ICD-10, LOINC, etc.). Bonne compréhension des plateformes et pipelines de données (Snowflake, dbt, IICS appréciés). Capacité à rédiger une documentation fonctionnelle claire , des user stories et des critères d’acceptation. Excellentes compétences en communication et expérience en environnement Agile . 3 à 6 ans ou plus d’expérience en tant que Business Analyst dans des contextes data, santé ou réglementaires .
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance

Mission freelance
Développeur Python Confirmé

CAT-AMANIA
Publiée le
Apache Airflow
DBT
FastAPI

6 mois
Nord, France
Pour un client dans le domaine bancaire, Vous participez à l’évolution du moteur python permettant de réaliser l’analyse des données bancaires du client · Développement en Python et SQL avec une plateforme Big Data Snowflake · Utilisation de DBT, Pandas, MLFlow et Airflow. · Chaine de développement complète (bac à sable – recette – PV recette – mises en productions – suivi de mises en productions) Principaux livrables : · Codes Python, SQL dans Gitlab · Evolutions dans nos Code Base · Analyses Ad Hoc · Test Unitaire / Test Fonctionnel
Freelance

Mission freelance
Référent Technique – Dataiku & Braincube

Streamlink
Publiée le
AI
API
AWS Cloud

6 mois
400-600 €
Malakoff, Île-de-France
Langues : Français, Anglais (obligatoire – échanges avec l’Inde) Séniorité : Senior (environnements data/ML/Cloud) Plateforme Dataiku en environnement hybride : Cloud AWS + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Le client responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité de client Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Freelance

Mission freelance
Database Engineer

HAYS France
Publiée le
Ansible
Cloud
Linux

1 an
Lille, Hauts-de-France
Dans le cadre du renforcement de son pôle Data & IT, notre client recherche un Database Engineer expérimenté pour intervenir sur la performance, la disponibilité et l’évolution de ses systèmes de gestion de bases de données. Le consultant rejoindra les équipes IT, Data Architects et Développement afin d’apporter son expertise sur les environnements SQL, NoSQL et Cloud. Techniques Très bonne maîtrise des bases SQL & NoSQL. Expertise PostgreSQL, Oracle, Opensearch, Redis ou Snowflake. Connaissance des environnements hybrides : On-Premise & Cloud (AWS RDS, Azure SQL, Aiven). Bon niveau en automatisation : Terraform, Ansible, scripts Shell. Compétence en Python, Go ou Java pour le tooling DB. Solides compétences en administration Linux/Windows orientée performance. Connaissances en sécurité des données (chiffrement, audit, accès).
Freelance

Mission freelance
Data Manager Senior - Customer domain

Atlas Connect
Publiée le
CICS (Customer Information Control System)
Data governance
Data Lake

12 mois
600-640 €
Issy-les-Moulineaux, Île-de-France
🎯 Contexte & Objectif du Poste Dans le cadre du renforcement de la gouvernance et de la structuration du paysage data, nous recherchons un Data Manager Senior intervenant de manière transversale sur le domaine Customer et les autres domaines data. Le Data Manager joue un rôle clé d’interface entre les équipes métier, produit et techniques. Il garantit la cohérence, la standardisation et la qualité long terme des données tout en accompagnant la conception des data products. 🧩 Responsabilités principales1️⃣ Cadrage & Conception des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products. Apporter une forte compréhension fonctionnelle des processus Customer. Conseiller sur les choix de modélisation, la complexité, la faisabilité et les impacts transverses. Garantir l’alignement avec les standards data et l’architecture cible. 2️⃣ Gouvernance & Standards Data Définir, maintenir et promouvoir les standards de data management (règles de modélisation, conventions de nommage, documentation). Co-construire des guidelines et patterns lors de nouveaux cas d’usage. Assurer l’adoption et la cohérence des standards au sein du domaine Customer. Être référent sur la qualité de la documentation et les bonnes pratiques de gouvernance. 3️⃣ Urbanisation & Cohérence Transversale Assurer l’interopérabilité entre les domaines data. Identifier et corriger les duplications, chevauchements et fragmentations (notamment autour des concepts Customer). Fournir des recommandations pour simplifier et rationaliser le paysage data. Promouvoir la réutilisation, l’harmonisation et la qualité long terme des données. 4️⃣ Data Management Opérationnel Support aux activités continues de gestion des données. Maintien de la documentation, des modèles et des définitions de données. Coordination des parties prenantes. Mise en place et suivi des règles de qualité, contrôles et réconciliations.
Freelance

Mission freelance
Data Steward

Phaidon London- Glocomms
Publiée le
Data analysis
P2P
Project Portfolio Management (PPM)

6 mois
400-550 €
Écully, Auvergne-Rhône-Alpes
Rôle du Data Steward Le Data Steward (expert fonctionnel / chef de projet / référent métier) n’est pas un développeur , mais un profil fonctionnel chargé de garantir la qualité, la cohérence et la bonne compréhension des besoins métier auprès des équipes techniques. Responsabilités principales Gestion de projet et coordination efficace des différentes parties prenantes Recueil et analyse des besoins métiers Rédaction de spécifications fonctionnelles claires, complètes et structurées Accompagnement des développeurs lors des premiers tests et clarifications Support aux utilisateurs : validation, assistance, formation Contribution au bon déroulement de la migration des flux SAP BW vers Snowflake
Freelance
CDI

Offre d'emploi
Data Scientist

Lùkla
Publiée le
Azure DevOps
CI/CD
Databricks

3 ans
47k-64k €
100-520 €
Paris, France
Dans le cadre de sa stratégie Data & IA, notre client dans le secteur bancaire renforce ses équipes pour concevoir, entraîner, déployer et monitorer des modèles de Machine Learning, et intégrer les solutions d’IA Générative dans ses parcours clients et processus métiers. Vous rejoignez une équipe Data innovante, à la croisée des enjeux opérationnels, réglementaires et technologiques. Environnement technique : Modélisation & IA : Logistic Regression, XGBoost / LightGBM, SHAP, LIME, LLM (OpenAI, HuggingFace), LangChain, LangGraph ML Engineering : Python, Scikit-learn, MLflow, FastAPI, Pytest, GitHub Actions, Docker, Kubernetes Cloud & Big Data : Azure ML, Databricks, pySpark, Azure DevOps, Snowflake (atout) MLOps : CI/CD, Feature Store, API ML, Monitoring Drift, Backtesting, RAGAS, LLM as a Judge
86 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous