Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse à Paris

Votre recherche renvoie 14 résultats.
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Offre premium
Freelance
CDI

Offre d'emploi
Consultant Pre Trade Pricing Tools C#.NET H/F

ADONYS
Publiée le
ASP.NET
C#

1 an
40k-45k €
400-550 €
Paris, France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'un Consultant Pre Trade Pricing Tools C#.NET H/F 🎯 Contexte de la mission Vous travaillerez sur un outil permettant au Front de l’aider à gérer son risque de contrepartie, Vos missions: Participation au projet afin de répondre aux besoins de refonte des outils de pricing avec l’équipe des analystes quantitatifs en mettant en oeuvre une architecture micro-services, Mise en oeuvre de l’API market data permettant de récupérer différentes données de marché (interet rate, forex, zero coupon, equity et commodity) en se basant sur la bibliothèque ARM via summit, Mise en oeuvre de l’API legal data permettant de récupérer les données réglementaires de contreparties (CSA & master agreement), Maintenance corrective des composants de calcul MtmForward et mise à jour de l’API d’initial margin LCH., Support de la production quotidienne afin de détecter les éventuelles anomalies, suivi et analyse avec le desk de trading. Participation à l’amélioration de la couverture des tests unitaires des composants de calcul, Préparation, demande et suivi de livraison et la mise en production Environnement technique : C#.NET, .Net Core API 6, LINQ, data warehouse Apache Hive, Git, Jenkins, XlDeploy, Bitbucket, base de données NoSql Couchbase Entreprise Edition 6.6.0, Log4net, JSON, Design, Visual studio 2019/2022, SQL, SQL Server, Sybase, Oracle, SQLDbx, SSAS, Swagger, Nswag, IIS7, Windows 10, Windows Server 2012. Environnement fonctionnel : produits dérivés Equity, Commodity, forex et Fixed Income.
Freelance

Mission freelance
DÉVELOPPEUR TALEND

Signe +
Publiée le
ETL (Extract-transform-load)

12 mois
500 €
Paris, France
Contexte du poste Dans le cadre de l’évolution et de l’optimisation du système d’information data, nous recherchons un Développeur Talend afin de concevoir, développer et maintenir les flux d’intégration de données (ETL/ELT). Le consultant interviendra au sein d’une équipe Data/BI dans un environnement agile. Missions principales Concevoir et développer des flux ETL/ELT sous Talend Assurer l’intégration de données issues de sources hétérogènes (API, fichiers, bases de données) Modéliser et alimenter des Data Warehouse / Data Marts Optimiser les traitements et les performances des flux existants Mettre en place des règles de Data Quality et de contrôle des données Gérer les déploiements et versions via Git / CI-CD Participer à la mise en production et au suivi des traitements Documenter les flux et assurer la maintenabilité des solutions Collaborer avec les équipes BI, Data Engineering et métiers Compétences techniques requises Maîtrise de Talend (DI / Cloud / ESB selon contexte) Bonne maîtrise du SQL (Oracle, PostgreSQL, SQL Server…) Expérience en modélisation de données (DWH, DataMart, ODS) Connaissance des API REST / JSON / XML Git (versioning) et notions CI/CD Connaissance d’un cloud (AWS, Azure ou GCP) appréciée Connaissance d’outils BI (Power BI, Tableau) est un plus Compétences appréciées (bonus) Snowflake / BigQuery / Databricks Kafka / streaming de données ELK (ElasticSearch, Logstash, Kibana) Java (routines Talend) Méthodologie Agile / Scrum Industrialisation de plateformes data
Freelance

Mission freelance
Data Engineer

Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)

3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
CDI
Freelance

Offre d'emploi
Architecte Big Data

HN SERVICES
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)

6 mois
40k-70k €
400-550 €
Paris, France
Vous serez responsable de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytique et IA basée hébergée en hybride Cloud/On Premises. Ce poste nécessite une compréhension approfondie de l’écosystème Data en terme de technologies et de pratiques à l’état de l’art (i.e. Hybridation, Datamesh etc…) Les principales activités sont les suivantes : - Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée - Accompagner les équipes data dans la mise en œuvre des architectures définies - Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytique et IA - Optimiser les processus d'ingestion de données et contribuer à la définition et la mise en œuvre des politiques de gouvernance des données - Évaluer et préconiser les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données - Proposer des optimisations pour résoudre les problèmes d’architecture liés au stockage, à l’accès et à l’exploitation de la plateforme data - Une expérience sur l’accompagnement de projet en lien avec des migrations de plateforme data On premises vers le Cloud (idéalement GCP). Compétences techniques ou métier recherchées : - Vous avez une expérience minimale de 6 ans sur un poste d'architecte data et vous avez une expérience de mise en œuvre d'une plateforme basée sur une technologie Cloud. - Vous avez obtenu un diplôme dans le domaine IT et êtes spécialisé dans la Data. - Vous avez une expérience similaire sur la modélisation des données. - Concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL. Compétences comportementales recherchées : - Coopérer et fonctionner en transversal - Interagir facilement avec les autres - Négocier et convaincre - Proposer des initiatives ou des solutions - S'adapter aux changements. Compétence complémentaire : - Maitrise des Plateformes Data GCP, Spark, Python, SQL, Kafka, MongoDB Excellente connaissance des concepts et technologies des datalake, datawarehouse / entrepôts de données, lakehouse, des plateformes cloud telles que Google Cloud.
CDI

Offre d'emploi
Data Engineer Cloud H/F

FED SAS
Publiée le

55k-65k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)
Freelance

Mission freelance
Banque de détail - analyse de données réglementaires

Mon Consultant Indépendant
Publiée le
Finance
Gestion de projet

24 mois
600-630 €
Paris, France
Contexte & Enjeux : Dans le cadre du renforcement d'un centre de services bancaires, nous recherchons un(e) freelance pour accompagner la mise en conformité des déclarations fiscales internationales (FATCA et EAI). L'objectif est de sécuriser la qualité des données produites par les systèmes d’information et d’anticiper les évolutions annuelles des cahiers des charges réglementaires. La mission s’inscrit dans une démarche de fiabilisation à long terme et nécessite une expertise pointue en environnement bancaire. Description des Travaux : 1. Production et Fiabilisation des Déclarations · Préparation, contrôle et correction des flux déclaratifs (cycles de tests et corrections). · Coordination avec les partenaires d'audit et de conseil. · Rédaction des bilans de contrôle et de conformité. 2. Amélioration Continue et Veille Réglementaire · Analyse des retours d’expérience (post-mortem) pour optimiser les processus. · Anticipation des impacts réglementaires sur les outils existants. · Rédaction des spécifications fonctionnelles pour les évolutions du Système d’Information. 3. Pilotage de la Donnée et Reporting · Production mensuelle des fichiers de reporting et gestion des campagnes. · Maintenance du socle de données et réalisation de diligences spécifiques (High Value). · Analyses de données ad hoc pour la justification d’anomalies. · Participation active aux ateliers de pilotage opérationnel. Profil Recherché : · Expérience : Minimum 5 ans sur un poste similaire en Data/Réglementaire. · Expertise métier : Maîtrise de la Banque de Détail et des enjeux fiscaux internationaux. · Connaissance approfondie des référentiels tiers (données clients/contrats). · Culture des entrepôts de données bancaires (Datawarehouse). Compétences techniques : · Analyse de données complexe. · Maîtrise de SAS Studio. · Excellente pratique d'Excel et de PowerPoint. · Savoir-être : Autonomie, grande rigueur et force de proposition. Livrables Attendus : · Fichiers de déclarations réglementaires définitifs. · Bilans de contrôle et documents de synthèse post-mortem. · Dossiers de spécifications fonctionnelles (DFD). · Reportings et analyses de données récurrents. Modalités : · Démarrage : Juillet 2026. · Durée : Accompagnement pluriannuel (visibilité sur 3 ans).
Freelance

Mission freelance
Directeur de Projets-Banque

Codezys
Publiée le
Gestion de projet

12 mois
570-700 €
Paris, France
Contexte de la mission Une entité spécialisée dans les technologies de l'information, dédiée aux domaines de la finance, des risques et du recouvrement, est responsable du développement et de la maintenance d’un écosystème applicatif couvrant notamment : La comptabilité La finance La gestion des risques Les provisions Le recouvrement La gestion immobilière Les activités de marché La mission consiste à créer un système d’information moderne, fiable et orienté data, capable de : Répondre aux exigences croissantes des régulateurs en termes de délais et de volumes Contribuer à un plan stratégique à long terme, intégré notamment dans un volet dédié à la finance L’environnement SI est hybride et fortement axé sur la data, comprenant : Un entrepôt de données (Data Warehouse) Des datamarts spécialisés Des outils de visualisation de données (Data Visualization) Ce contexte favorise une approche centrée sur la data et la convergence entre les fonctions Finance et Risques. La mission s’inscrit au sein d’une équipe Agile d’environ 10 personnes, chargée de : La collecte mensuelle des données comptables, activité à forte criticité La production d’indicateurs financiers, comptables et risques La gestion des pistes d’audit La production des états et flux réglementaires Objectifs et livrables Objectifs & responsabilités Dans un cadre Agile, le consultant sera responsable des missions suivantes : Promouvoir et diffuser les valeurs Agile à l’ensemble de l’équipe Animer les rituels et favoriser la cohésion du collectif de travail Partager les meilleures pratiques et collaborer efficacement avec toutes les équipes Définir et suivre des KPI orientés performance et démarche d’amélioration continue Assurer une communication claire sur la stratégie, les indicateurs et les résultats Piloter la performance opérationnelle de l’équipe, en interne comme en externe Veiller au bon fonctionnement du système d’information dans son périmètre Structurer et prioriser les activités en lien avec les interlocuteurs métiers Définir et piloter les trajectoires IT et métier en conformité avec les standards d’architecture Contribuer à l’organisation du staffing en collaboration avec les responsables IT
CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Freelance

Mission freelance
BA DATAVIZ Tableau - Banque

Mon Consultant Indépendant
Publiée le
Gestion de projet

12 mois
560-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS : Expérience en environnement bancaire Maîtrise avancée des outils Tableau et Power BI Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
CDI

Offre d'emploi
Business analyst DataViz Tableau

Mon Consultant Indépendant
Publiée le
Business Analysis

60k-70k €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau. Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » · Etre en lead sur la phase de conduite du changement · Accompagner la structuration de la recette et la mise en qualité des données · Assurer le lien avec les chefs de projet et experts
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
14 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous