Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 368 résultats.
Freelance

Mission freelance
Architecte Applicatif & Data Cloud

CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python

3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
CDI

Offre d'emploi
Senior Finance Project Manager (H/F)

Mindquest
Publiée le
Direction de projet

59k-75k €
Issy-les-Moulineaux, Île-de-France
Context : Je recherche pour l’un de mes clients, grand groupe international, un Senior Finance Project Manager afin de piloter des projets stratégiques autour du Cash Collection et des systèmes de Trésorerie. Objectif : moderniser les processus Order-to-Cash et accompagner la transformation des outils Finance à l’échelle globale. Missions : Vous intervenez sur des projets majeurs avec une responsabilité end-to-end : • Piloter le déploiement international d’une solution de cash collection • Gérer des projets liés aux systèmes de trésorerie (paiements, cash management, ISO20022) • Coordonner les intégrations avec les ERP et partenaires bancaires • Assurer la qualité des données (migration, KPIs, fiabilité) • Piloter les partenaires externes et les déploiements multi-pays • Gérer le cycle projet complet (scope, budget, planning, delivery) • Accompagner le change management (formation, adoption, support) • Assurer la transition vers le RUN et l’amélioration continue Environnement • Sidetrade (Order-to-Cash / Cash Collection) • Norme ISO 20022 • Outils de trésorerie type Kyriba • Environnement ERP & intégrations financières
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Freelance

Mission freelance
Architecte Data DevOps / FinOps (Expertise GCP)

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
650 €
Paris, France
Contexte de la mission Au sein d'une grande entité du secteur de l'énergie, vous interviendrez en tant qu' Architecte Data transverse avec une double expertise DevOps et FinOps . Votre rôle sera stratégique : concevoir des architectures cloud robustes, définir les standards d'urbanisation (Data, IA, MLOps) et piloter l'optimisation des coûts dans un environnement hybride et multi-cloud, avec un focus majeur sur GCP . Missions principales 1. Architecture & Urbanisation Définir les standards d'architecture et les règles d'urbanisation pour les domaines Data, IA, DevOps et MLOps. Concevoir et mettre en œuvre des architectures de données cloud performantes. Rédiger, maintenir et diffuser les bonnes pratiques (Data, On-Premise, Cloud et DevOps). Assurer la gouvernance des modèles et encadrer l'usage des LLM tout en gérant les risques éthiques et réglementaires. 2. Expertise DevOps & MLOps Industrialiser les pipelines de données et de Machine Learning (ML Pipelines). Superviser l'orchestration et la conteneurisation des services. Garantir la mise en œuvre des principes CI/CD et GitOps dans des environnements complexes. 3. Stratégie FinOps & Performance Intégrer les principes FinOps dès la conception (Architecture by design). Optimiser spécifiquement les coûts liés au Cloud et aux ressources GPU (Plan FinOps dédié à l'IA). Définir des modèles de refacturation interne et préconiser les outils de suivi de performance pour superviser les pipelines. Expertise Technique Requise Cloud : Maîtrise avancée de Google Cloud Platform (BigQuery, Composer, Airflow, DataProc, DataFlow). Infrastructure as Code & CI/CD : Terraform, Ansible, Git, Jenkins, GitLab-CI, GitOps, Helm. Conteneurisation : Docker, Kubernetes. Observabilité : ELK, Grafana, Prometheus, Google Monitoring. Environnement : Expérience significative en environnements hybrides (On-premise / Cloud). Modalités pratiques Lieu : Paris – Présence sur site obligatoire 2 à 3 jours/semaine . Date de démarrage : 01/06/2026. Date de fin : 31/12/2026 (Visibilité long terme). Prix d’achat max : 650 € HT / jour.
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Freelance

Mission freelance
Lead Test Data Management

Axysse
Publiée le
TDMA

1 an
400-550 €
Île-de-France, France
📅 Démarrage ASAP | Mission longue durée (fin 2026) Dans le cadre d’un programme de transformation majeur autour d’un système de réservation de nouvelle génération, nous recherchons un Lead Test Data Management pour structurer et industrialiser la gestion des données de test à grande échelle. 👉 Un rôle clé, transverse, au cœur des enjeux de qualité, de performance et de sécurisation des parcours métiers. 🎯 Votre rôle Vous prenez la responsabilité complète de l’activité Test Data Management (TDM) avec un double objectif : structurer et accélérer. Vos principales responsabilités : 🔹 Pilotage de l’activité TDM Définir la stratégie de gestion des jeux de données de test Prioriser les besoins (backlog data) et garantir un service fiable aux équipes Mettre en place des KPI (qualité, disponibilité, délais, couverture) 🔹 Gouvernance & catalogue de données Construire et maintenir un catalogue centralisé de jeux de données Définir les standards (naming, versioning, usage) Assurer la traçabilité entre besoins métiers et datasets 🔹 Support aux équipes & campagnes E2E Accompagner les Feature Teams dans leurs besoins data Sécuriser les campagnes end-to-end et les parcours critiques Coordonner la configuration des données complexes 🔹 Gestion des partenaires Piloter les prestataires et structurer le cadre opérationnel Suivre la qualité de service et les engagements 🔹 Industrialisation & amélioration continue Identifier les leviers d’automatisation (génération, anonymisation, duplication…) Optimiser les délais de mise à disposition des données 🔹 Communication & onboarding Formaliser les processus et bonnes pratiques Accompagner les équipes dans l’adoption Assurer un reporting régulier
CDI

Offre d'emploi
Data Analytics Engineer Senior F/H

ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
CDI

Offre d'emploi
Consultant finance sage x3 (h/f)

Actual Talent
Publiée le
Sage x3
SAP

45k-55k €
Serris, Île-de-France
Vous serez amené à intervenir majoritairement sur le parc client installé. Une partie avant-vente pourra également vous être confiée, si vous avez une appétence pour ce domaine. Vous serez amené à : Intervenir sur l’étude du besoin, la définition et l’assistance au paramétrage de la solution sur la partie Finance Intervenir pour la formation et l’assistance aux utilisateurs (sur site ou à distance) Effectuer le traitement support des demandes clients Participer à des astreintes ponctuelles (soirée, nuit, WE) pour des missions ne pouvant être effectuées durant les temps d’exploitation de l’ERP
Freelance

Mission freelance
Data Engineer industriel

MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel

6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Freelance

Mission freelance
Développeur Data (H/F) – Confirmé – Nantes

CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
Freelance

Mission freelance
QA Lead

Byrongroup
Publiée le
Data quality
ERP
KPI

1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Freelance

Mission freelance
Data Analyst Confirmé

SKILLWISE
Publiée le
Data analysis

3 mois
400-550 €
Île-de-France, France
Réaliser des extractions de données et des analyses ad hoc en réponse aux besoins métiers Produire des études clients & prospects (Marketing, Offre, Jeu Responsable…) Mesurer l’impact business : Arrêt / relancement de jeux Campagnes CRM & digitales Élaborer des bilans d’activité (trimestriels / annuels) : offre, activité joueurs, parcours d’inscription Analyser les phénomènes de cannibalisation et de rémanence Participer à l’exploration de nouvelles sources de données (navigation, tracking…) Votre rôle : Traduire les données en insights clairs et actionnables Formuler des recommandations business pertinentes Garantir la cohérence méthodologique des analyses Assurer la qualité et la fiabilité des données présentées Interagir avec différents interlocuteurs métiers
Freelance
CDI

Offre d'emploi
Data Engineer / Développeur Java Full Stack

AVA2I
Publiée le
Angular
API REST
AWS Cloud

1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5368 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous