Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 076 résultats.
CDI

Offre d'emploi
Développeur Fullstack Confirmé (Java / Hibernate / React) – Secteur GED (H/F) -Nantes

RIDCHA DATA
Publiée le
Hibernate
Java
Kubernetes

Nantes, Pays de la Loire

🔎 Contexte Notre client final, acteur majeur dans la gestion documentaire et les workflows métiers, recherche un Développeur Fullstack confirmé pour renforcer son équipe projet. La mission consiste à développer de nouveaux modules fonctionnels et techniques, moderniser l’architecture existante (conteneurisation, optimisation des performances) et assurer la maintenance évolutive de l’application. Missions principales Développement & intégration Développer de nouveaux modules applicatifs en Java / Spring / Hibernate Intégrer des solutions informatiques existantes et participer aux phases de recette Rédiger la documentation technique et concevoir des scénarios de tests Maintenance & optimisation Assurer la maintenance corrective et évolutive des applications existantes Réaliser des revues de code et garantir la qualité logicielle Participer à la modernisation de l’architecture via Docker / Kubernetes Collaboration & support Participer à l’analyse détaillée des besoins fonctionnels et techniques Assister les utilisateurs dans la résolution de problèmes Piloter ou coordonner les prestataires techniques impliqués dans le projet 📦 Livrables attendus Modules fonctionnels conformes aux spécifications Documentation technique détaillée Jeux de tests (unitaires, intégration, fonctionnels) Participation aux ateliers de recette et validation des livrables 🛠️ Compétences recherchées Backend : Java confirmé, Spring Boot / Spring MVC, Hibernate (impératif) Base de données : SQL confirmé (PostgreSQL, MySQL) Frontend : ReactJS (junior – souhaitable) Architecture & DevOps : Docker, Kubernetes (souhaité) Langue : Français courant (impératif)

CDI

Offre d'emploi
Data Scientist/IA (H/F)

Amiltone
Publiée le

35k-40k €
Lyon, Auvergne-Rhône-Alpes

Le poste Mission : En tant que Data Scientist (H/F), vous serez en charge des missions suivantes : - Collecter et préparer des données - Nettoyer, transformer et structurer les données pour les rendre exploitables - Gérer la qualité des données - Construire des modèles prédictifs et des algorythmes de machine learning - Veiller à l'amélioration continue des performances des modèles - Suivre les avancées en data science, machine learning et intelligence artificielle Stack technique: -Machine Learning -Python -SQL -Pandas / Numpy -Flask -Tableau/ Power BI

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Freelance

Mission freelance
Data Management & AI Lead

Codezys
Publiée le

12 mois
Paris, France

Date : 08/10/2025 Durée : 1 an Lieu : Paris Âge recommandé : 8 ans et plus Métier et fonctions Métier : Pilotage de projet ou de programme Fonction : Expertise Spécialités technologiques Gestion des données Data management AI Reporting Monitoring Type de service Assistance Technique (facturation avec un taux journalier) Compétences Technologies et Outils Python Bash GenAI GIT JIRA Soft skills Rigueur Leadership Langues Anglais Secteurs d'activités Assurance Description et livrables de la prestation Mission : Piloter la stratégie de gestion des données non structurées (UD) et l’adoption de l’IA dans différents métiers. Concevoir et mettre en œuvre le cadre méthodologique, industrialiser les outils, accompagner leur adoption par les utilisateurs, et assurer un suivi opérationnel pour garantir cohérence et efficacité. Responsabilités principales : Analyser les processus métiers et cas d’usage IA pour proposer un plan de gestion des données non structurées. Déployer le cadre UD dans plusieurs domaines métier et assurer son industrialisation. Promouvoir et faciliter l’adoption des outils et pratiques auprès des utilisateurs. Assurer le suivi opérationnel : monitoring, reporting et support aux utilisateurs. Collaborer avec les équipes métiers et techniques pour garantir la cohérence et l’efficacité.

CDI

Offre d'emploi
Data Ingénieur H/F

FED SAS
Publiée le

60k-65k €
Île-de-France, France

Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris 17 un Data ingénieur H/F dans le cadre d'un CDI. La principale mission est l'extraction, l'intégration et la structuration des données sur tout le périmètre du Groupe. Au sein de la Data Factory, vous interviendrez sur l'ensemble des sujets techniques liés aux traitements des données métiers afin de faire face aux principaux enjeux de la donnée tel que le pilotage opérationnel des directions business, intégration et consolidation massive de données Data Cloud, l'enrichissement et valorisation de la donnée.

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Offre premium
CDI

Offre d'emploi
Lead data analyst - CDI

BLOOMAYS
Publiée le
PowerBI
Python
SQL

55k-60k €
Toulouse, Occitanie

Notre client est une scale-up toulousaine qui révolutionne l'impression photo instantanée aux États-Unis depuis 2010. Grâce à ses applications mobiles et web, elle permet aux utilisateurs de commander leurs photos et de les récupérer en moins d'une heure dans plus de 20 000 points de vente (Walmart, Walgreens, CVS) En tant que Lead Data Analyst, tu es à la fois référent technique et acteur stratégique. Tu encadres une équipe d’analystes, définis la vision data de l’entreprise, assures l’excellence analytique, et contribues activement aux choix structurants pour nos produits et notre stratégie business. 🎯 Tes missions principales : Définir, structurer et piloter la roadmap data avec les parties prenantes (Produit, Business, Engineering). Encadrer, coacher et faire monter en compétence les Data Analysts de l’équipe. Garantir la qualité, la rigueur et la fiabilité des livrables analytiques. Conduire des analyses complexes pour répondre à des enjeux stratégiques. Instaurer une culture de veille et d’innovation continue (outils, frameworks, bonnes pratiques). Représenter l’équipe data lors des comités transverses et événements internes.

Freelance

Mission freelance
Data Analyst pilotage opérationnel et financier

KEONI CONSULTING
Publiée le
MySQL

18 mois
100-500 €
Paris, France

CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).

Freelance

Mission freelance
Mission Freelance – Data Engineer AWS (H/F)

Comet
Publiée le
AWS Cloud

2 ans
400-550 €
Île-de-France, France

🧠 Vos missions Concevoir, construire et maintenir l’infrastructure AWS dédiée aux traitements Data & IA. Développer des pipelines de données robustes et scalables, orientés médias. Industrialiser les cas d’usage métiers en lien étroit avec les équipes Data Science. Garantir la qualité, la fiabilité et la performance des données et des traitements. Contribuer à la documentation technique et au suivi de l’activité. Collaborer avec les équipes métiers pour recueillir les besoins et proposer des améliorations. 🛠️ Environnement technique Cloud & Infra as Code : AWS (IAM, S3, Lambda, Secret Manager, VPC), Terraform, Ansible, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Langage principal : Python (POO, design patterns, tests). CI/CD : GitFlow, pipelines de déploiement. Bases de données : SQL et Graph. Outils projet : JIRA, méthodes Agile.

Freelance

Mission freelance
Mission Freelance – CloudOps Engineer – Paris (hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cloud
Google Cloud Platform (GCP)

3 mois
400-600 €
Paris, France

🎯 Mission Freelance – CloudOps Engineer – Paris (hybride) Pour le compte d’un grand groupe international, nous recherchons un·e CloudOps Engineer pour rejoindre une équipe cloud d’environ 170 personnes. Objectif : simplifier les outils techniques du groupe et automatiser les infrastructures. 🎯 Objectifs de la mission : Administrer et optimiser les environnements GCP (prioritaire) et AWS Fournir des services cloud “clé en main” pour les équipes IT Automatiser les déploiements via l’ Infrastructure as Code Améliorer la sécurité, la fiabilité et les bonnes pratiques Travailler avec les équipes sécurité, produit et run Accompagner la transformation cloud à grande échelle 🔧 Stack technique : Cloud : GCP, AWS – certification pro demandée (ex : GCP Architect Pro, AWS Solutions Architect Pro) Outils : Terraform, Python, Bash, Curl, APIs Méthodes : DevOps, scripting, automatisation, IaC Environnements : Linux, CI/CD, sécurité cloud, monitoring Langue : anglais B2 minimum 🧠 Compétences attendues : Python : confirmé / expert CloudOps / GCP / AWS : confirmé à expert Terraform (IBM) : confirmé IAM Cloud / Cloud Native : confirmé ✅ Profil recherché : 3 à 5 ans d’expérience cloud Bonne maîtrise des architectures distribuées À l’aise sur le run (1 semaine par mois) et le support utilisateurs Autonome, communicant, pédagogue 📍 Lieu : Paris (hybride) 📅 Démarrage : ASAP 💰 TJM : selon profil 📨 Intéressé·e ? Merci de postuler votre CV à jour

Freelance

Mission freelance
Ingénieur Automatisation & Data IA

KEONI CONSULTING
Publiée le
autonomie

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Cloud, Intégration de données, IA generative, API Monitoring Compétences Technologies et Outils Synapse REST Azure SQL Soft skills Autonomie Rigueur Pour l'un de nos clients dans le secteur du transport, nous sommes actuellement à la recherche d'un Ingénieur automatisation & Data IA. Vous serez en charge de mettre en place et orchestrer des flux d’automatisation et d’analyse de données en s’appuyant sur l’IA générative (OpenAI), un data warehouse cloud (Azure Synapse) et des outils d’automatisation de workflows (n8n). L’objectif est d’optimiser les processus internes, d’améliorer la productivité des équipes et de fiabiliser l’exploitation des données. MISSIONS Vos missions seront les suivantes : Conception et déploiement de solutions d’automatisation : créer, monitorer et maintenir des workflows complexes via n8n, en intégrant des sources multiples (API, bases de données, outils internes). Exploitation de l’IA générative : intégrer les services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels et les cas d’usage internes. Gestion de la donnée : mettre en place et optimiser des pipelines d’ingestion et d’analyse dans Azure Synapse, incluant l’intégration de données multi-sources et temps réel. Optimisation et gouvernance : veiller à la performance des requêtes SQL, à la sécurité (RBAC, data masking) et à la maîtrise des coûts liés aux API et aux environnements cloud. Support et amélioration continue : assurer le monitoring, le debug et l’évolution des flux d’automatisation pour répondre aux besoins métiers. Expertise souhaitée Compétences techniques : IA / OpenAI Maîtrise de l’API OpenAI (chat, embeddings, fine-tuning). Connaissances en prompt engineering et intégration IA dans des workflows. Sensibilité aux enjeux de sécurité, de gouvernance et de gestion des coûts liés aux appels API. Data Engineering / Azure Synapse Excellente pratique du SQL avancé (optimisation, transformation, agrégation). Intégration et traitement de données multi-sources et en temps réel. Compétences de base en gouvernance et sécurité (RBAC, data masking). Workflow Automation / n8n Conception, déploiement et maintenance de workflows automatisés complexes. Connexion à divers systèmes via API REST, bases de données, services internes/externes. Mise en production, suivi, debug et optimisation continue des flux automatisés.

Freelance

Mission freelance
Consultant(e) Conformité & Data (SI / Réglementaire)

Syneam
Publiée le
RGPD

6 mois
Paris, France

Contexte : Nous recherchons pour l’un de nos clients un Chef de Projet spécialisé en data et conformité, capable d’intervenir sur des projets SI dans un environnement réglementaire strict (banque/finance/droit). Vous serez en charge de piloter des initiatives stratégiques liées à la gestion des données, à la conformité (KYC, RGPD, LCBFT) et à l’optimisation des processus métiers. Dans le cadre de cette mission, vous serez amené(e) à : Piloter des projets SI en lien avec la data et la conformité, depuis la phase de cadrage jusqu’à la livraison. Animer des ateliers avec les parties prenantes (métiers, IT, juridiques) pour recueillir les besoins et définir les solutions. Gérer le patrimoine applicatif lié aux outils data (Power BI, Alteryx, Tableau) et aux logiciels de conformité (ex : KYC). Appliquer les méthodologies de gestion de projet (Agile, Cycle en V) et garantir le respect des délais, coûts et qualité. Coordonner des équipes pluridisciplinaires (développeurs, analystes, juristes) et assurer le reporting auprès de la direction. Veiller à la conformité réglementaire (LCBFT, RGPD) et proposer des améliorations continues des processus. Rédiger des spécifications fonctionnelles et techniques, ainsi que des supports de formation pour les utilisateurs finaux. Profil recherché : Maîtrise de la conduite de projet SI et de la gestion de patrimoine applicatif. Connaissance des cadres réglementaires (LCBFT, RGPD, directives européennes).

CDI

Offre d'emploi
Data Scientist - secteur médical H/F

VIVERIS
Publiée le

40k-50k €
Grenoble, Auvergne-Rhône-Alpes

Contexte de la mission : Dans un contexte d'innovation biomédicale, la mission s'intègre au sein d'un service « Data Science - Molecular & Data-IT » spécialisé dans l'exploitation de données scientifiques et la mise en oeuvre de modèles complexes au service de la recherche et du développement. Basée à Grenoble, cette mission vise à renforcer les travaux autour de dynaMo, un outil de simulation destiné à optimiser l'étude des interactions biologiques et à améliorer la prédiction des résultats expérimentaux. Responsabilités : - Contribuer à l'amélioration de l'outil dynaMo en évaluant divers outils de simulation des interactions entre primers. - Générer des simulations mimant des jeux de données réels, en collaboration étroite avec les biologistes et les data scientists impliqués dans le projet. - Comparer les résultats obtenus avec les données réelles afin d'identifier les écarts et proposer des pistes d'amélioration. - Synthétiser les résultats, proposer et mettre en oeuvre des optimisations permettant de reproduire plus fidèlement les réactions biologiques.

CDI
Freelance

Offre d'emploi
Data Analyst – Secteur Services & Technologie (H/F)

CELAD
Publiée le
BI
Microsoft Power BI

6 mois
Massy, Île-de-France

Nous recherchons un(e) Data Analyst pour rejoindre notre client du secteur des services et de la technologie. Ce poste vous permettra de travailler sur des projets stratégiques autour de la valorisation des données et de l’optimisation des outils de pilotage. Vos missions principales : - Structurer et optimiser des modèles de données complexes pour faciliter l’analyse. - Participer à la migration et à l’harmonisation de datasets sur des environnements BI modernes. - Concevoir et industrialiser des rapports et dashboards destinés au pilotage de l’activité. - Collaborer avec les équipes métiers pour transformer leurs besoins en solutions data efficaces et automatisées.

Freelance

Mission freelance
Développeur Back-End AEM & Team Lead

Atlas Connect
Publiée le
Adobe Experience Manager (AEM)
API REST
AWS Cloud

12 mois
540-590 €
Issy-les-Moulineaux, Île-de-France

Contexte Dans le cadre d’un projet de migration et de refonte de sites web sur Adobe Experience Manager (AEM) Cloud , nous recherchons un Développeur Back-End AEM & Team Lead expérimenté. Vous serez responsable de la conception et du développement back-end sur AEM, tout en jouant un rôle de référent technique et de manager de proximité auprès d’une feature team. Missions principalesDéveloppement & Architecture Concevoir et développer des composants et services back-end sur AEM (Cloud). Intégrer AEM avec d’autres systèmes via des API REST/GraphQL. Garantir la performance, la sécurité, l’évolutivité et la maintenabilité des sites. Participer aux choix d’architecture applicative et aux discussions techniques stratégiques. Contribuer à l’amélioration continue et résoudre les problématiques techniques. Leadership & Support technique Encadrer et accompagner les développeurs back-end (internes et externes). Valider les Merge Requests (MR) et assurer la qualité du code. Collaborer avec les Product Owners pour cadrer les besoins techniques. Promouvoir les bonnes pratiques de développement (CI/CD, tests, automatisation). Être un point de contact privilégié des architectes et leads techniques transverses. Collaboration & Communication Travailler en étroite collaboration avec les équipes front-end, UX/UI, design et produit. Documenter les développements et assurer le partage de connaissances. Garantir une communication claire et régulière sur l’avancée des sujets techniques.

Freelance

Mission freelance
Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI

INSYCO
Publiée le
BigQuery
Data analysis
DAX

3 ans
400-550 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Data Analyst Produit – Web Analytics (Piano Analytics) & Power BI. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/DAN/4919 dans l’objet de votre message Le pôle performance d’une direction data recherche une prestation de data analyse pour : accompagner les équipes Produit dans l’analyse d’impact de leurs activités assurer le run de l’activité de reporting automatique Activités principales de la prestation Accompagnement stratégique des équipes Produit & Métiers (80 %) Assurer un coaching régulier des équipes Produit (centrales et régionales) pour renforcer l’intégration de la donnée dans la décision, la roadmap et la priorisation. Réaliser des analyses d’impact des produits et services digitaux à partir des outils analytics (Piano Analytics, eStat Streaming, Nielsen) en lien avec les équipes Études. Identifier les besoins de tracking, construire les prérequis analytiques et suivre leur implémentation auprès des équipes techniques. Aider à identifier et définir les KPIs clés et garantir la cohérence transverse des indicateurs suivis. Identifier les besoins de reporting, structurer des tableaux de bord sur mesure et assurer leur appropriation par les équipes. Production et maintenance de reportings automatisés (20 %) Garantir le bon fonctionnement des dashboards existants sur Power BI et faire évoluer les modèles si nécessaire. Concevoir de nouveaux rapports Power BI : recueil du besoin, sourcing de la donnée, requêtage, prototypage/maquettes, validations itératives

2076 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous