Trouvez votre prochaine offre d’emploi ou de mission freelance Dash

Votre recherche renvoie 1 232 résultats.
CDI

Offre d'emploi
Data Analyst Technique H/F

█ █ █ █ █ █ █
Publiée le

Nanterre, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
QA DATA

KOUKA
Publiée le
CI/CD
Cypress
JIRA

40k-45k €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
Freelance
CDI

Offre d'emploi
Développeur Python - Data & Automation

VISIAN
Publiée le
Python

1 an
Paris, France
Contexte Développeur en charge de la gestion des scripts internes, de l’intégration de LLM et des tâches d’automatisation sur les flux de données et les processus, ainsi que des interactions API avec des sources externes. Mise en place de contrôles et de rapports sur la qualité des données. Contribution au développement des outils internes de l’équipe, tels que les processus de communication (mailing de masse), site web, planification d’équipe, etc. Objectif : Un développeur senior avec une solide compréhension des projets pilotés par les données, de l’automatisation, des référentiels IT et des exigences de gestion de services, pour travailler sur le développement interne de pipelines d’intégration et d’interfaces dans l’écosystème d’une grande banque d’investissement. Périmètre : Global, rôle exigeant une collaboration avec les clients internes de la banque d’investissement à l’échelle mondiale, nécessitant un anglais professionnel.
CDI

Offre d'emploi
Data Scientist et IA H/F

Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle

50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Freelance
CDI

Offre d'emploi
ingénieur support applicatif h/f

Ela Technology
Publiée le
Apache
Autosys
Axway

6 mois
Seine-Saint-Denis, France
L’équipe est en charge du support et de la production de plateformes transverses . Le besoin concerne un profil ingénierie de production avec une orientation SRE , dont la mission principale est : d’améliorer la gestion du run applicatif d’automatiser les tâches manuelles de production d’améliorer le monitoring afin de gagner en proactivité et d’améliorer le temps de résolution des incidents Missions Partage des connaissances avec l’équipe Amélioration de la documentation et des outils existants Participation aux projets, changements et incidents des plateformes Amélioration du monitoring et de l’alerting Identification et mise en place de l’automatisation Collaboration avec les équipes de développement Mise en place de quality gates lors des déploiements automatiques Travail dans un environnement anglophone Environnement technique IBM WebSphere MQ IBM WebSphere Application Server Axway Transfer CFT Apache HTTP Server Autosys (CA Workload Automation) Shell Unix Dynatrace
Freelance
CDI

Offre d'emploi
Data Analyst MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation
Freelance

Mission freelance
Data Analyst Workplace

Ness Technologies
Publiée le
Cisco
ITSM
Microsoft Power BI

6 mois
Essonne, France
Rôle Dans le cadre d’une transformation IT orientée performance et amélioration continue, vous intervenez au sein d’un dispositif dédié à l’optimisation des services Workplace. Votre mission consiste à analyser, piloter et améliorer la performance des environnements utilisateurs (poste de travail, collaboration, mobilité), en vous appuyant sur la donnée et des indicateurs mesurables. 🚀 Missions Analyse & Data Exploiter les données issues des outils de supervision, ITSM et satisfaction utilisateur Construire des tableaux de bord et indicateurs de performance (Power BI ou équivalent) Identifier les tendances, irritants et axes d’amélioration Produire des analyses et recommandations basées sur la donnée Amélioration continue Identifier, prioriser et piloter des chantiers d’optimisation Contribuer à la réduction de la dette technique et de l’obsolescence Participer à des initiatives d’innovation sur le Workplace Mettre en œuvre des actions concrètes avec suivi des gains Pilotage & reporting Préparer des synthèses et restitutions pour le management Participer aux comités de pilotage et de suivi Suivre les KPIs, mesurer l’avancement et ajuster les priorités Valoriser les résultats et gains obtenus Collaboration & transverse Travailler en interaction avec les équipes IT (Workplace, infra, support) Collaborer avec les parties prenantes métiers S’adapter aux évolutions du périmètre et des priorités Être force de proposition sur les axes d’amélioration
CDI

Offre d'emploi
Data Steward F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

45k-50k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Administrateur et Paramétreur Progiciel

R&S TELECOM
Publiée le
AIX (Advanced Interactive eXecutive)
Linux
PL/SQL

12 mois
Paris, France
COMPRÉHENSION DU SUJET – Expert Progiciel Affacturage 🏦 Contexte client La Banque Postale Leasing & Factoring (LBPLF) est la filiale spécialisée dans les activités d'affacturage et de crédit-bail du Groupe La Banque Postale (elle-même filiale à 100% du Groupe La Poste). La DSI de La Banque Postale gère le patrimoine applicatif de LBPLF dans le cadre du domaine LEAF (Leasing & Factoring). La solution informatique support de l'activité d'affacturage repose principalement sur : Le progiciel IMX de l'éditeur CODIX (cœur affacturage) Docaposte pour la gestion électronique de documents (GED) Une intégration au SI LBP (référentiels, moyens de paiement, risques et finances) Les chantiers en cours portent sur des évolutions et compléments de la solution (amélioration et conquête de parts de marché sur l'affacturage). 📌 Missions et livrables attendus L'expert interviendra sur les activités suivantes : ? Rédiger des analyses d'impact de la conception du produit sur l'architecture fonctionnelle SI ? Intégrer les contraintes techniques et répondre aux questions techniques ? Co-construire la base de connaissance du domaine ? Rédiger des dossiers de conception ? Analyser les impacts de montée de version (socle et patchs du progiciel IMX) ? Paramétrer, configurer et customiser le progiciel IMX ? Contribuer aux recettes techniques et rédiger les fiches d'anomalies ? Assurer le support technique auprès des équipes projet ? Réaliser et maintenir les scripts d'interface entre le progiciel et l'écosystème SI LBP ? Rédiger et envoyer les PV d'installation liés aux déploiements, corrections, patchs et migrations majeures
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)

OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage

3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance • Capacité à interagir avec des équipes techniques et métiers
Freelance

Mission freelance
Data Engineer - Azure

CONCRETIO SERVICES
Publiée le
Databricks
PySpark

12 mois
300-400 €
Nouvelle-Aquitaine, France
Contexte Rejoignez une équipe agile SAFe pour concevoir et industrialiser des pipelines Data et ML robustes sur un environnement Azure moderne. Vous serez au cœur de la transformation des prototypes data scientists en solutions de production. Vos missions Pipelines Data & ML Développement de pipelines Batch sous Azure Databricks Utilisation avancée de PySpark, Delta Lake, MLFlow, Workflows Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring Collaboration avec les data scientists pour industrialiser leurs modèles Développement logiciel Conception de packages Python robustes et maintenables Respect des standards : qualité de code, tests unitaires, CI/CD, documentation Développement d'APIs via Azure Functions et/ou Azure Container Apps Contribution projet & RUN Participation aux phases projet : faisabilité, architecture, conception, réalisation, MEP Activités d'amélioration continue et participation aux rituels agiles
Freelance

Mission freelance
Architecte applicatif IT windows -Habilitable - anglais courant H/F

Cheops Technology
Publiée le
AWS Cloud
IAM
Microsoft Windows

7 mois
400-670 €
Massy, Île-de-France
La prestation d’architecture applicative attendue concerne les couches hautes du modèle OSI. Les couches matérielles sont du ressort d’autres d’architectes techniques dédiées (réseau, serveur, stockage). Les HLD et LLD livrés par le prestataire servent de spécification d’entrée aux architectes matériels. Les spécifications d’entrée de la prestation d’architecture applicative sont : : - Le dossier d’urbanisme - Le dossier de sécurité - Les besoins fonctionnels Dans sa mission, le prestataire : • Définit les environnements qui seront installés (qualification préproduction, …) • Décrit le type d’architecture retenu (2-tiers, 3-tiers, client lourd.) • Justifie les choix retenus en termes de technologies pour les composants physiques et leur usage • Conçoit, en justifiant les choix, une architecture conforme au besoin de disponibilité, de sécurité et de scalabilité • Spécifie les choix pour les composants virtuels (VmWare, nombre de serveurs et version, …) • Détermine les modes de licensing des logiciels de la couche haute • Justifie les choix retenus en termes de technologies pour les composants middleware • Justifie les choix des services sécurités retenus (Gestion d’identité / Authentification / Gestion des accès / Annuaire de ressource) • Spécifie les besoins du service opération (Supervision / Sauvegarde / SLM / Ordonnancement Les domaines d’expertises nécessaires pour réaliser ces activités sont : • Maitrise des notions de DICT et des solutions adaptées pour y répondre • Expertise dans les domaines suivants - Spécification des besoins en systèmes de sauvegarde et de stockage (Mandatory) - Spécification des besoins en virtualisation, Systèmes (Mandatory) - Spécification de la sécurité réseau (segmentation, flux, protocoles, …) (Mandatory) - Spécifications des configurations SQL Serveur, IIS, ActiveDirectory (Mandatory) - Systèmes d’exploitation Windows, (Mandatory) - Systèmes d’exploitation Linux (Nice to have) - Cloud AWS (Nice to have)
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Data Migration & Integration Lead

Montreal Associates
Publiée le

30 mois
600-650 €
75001, Paris, Île-de-France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐋𝐞𝐚𝐝 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 & 𝐈𝐧𝐭𝐞́𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐴𝑦𝑎𝑛𝑡 𝑑𝑒 𝑏𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 𝑆𝑜𝑙𝑖𝑑𝑒 𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 𝑒𝑡 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒𝑠 𝑜𝑢𝑡𝑖𝑙𝑠 𝑑𝑒 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 (𝐿𝑆𝑀𝑊, 𝑀𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝐶𝑜𝑐𝑘𝑝𝑖𝑡, 𝐸𝑇𝐿) 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑖𝑛𝑡𝑒́𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 (𝐼𝐷𝑂𝐶...) 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑚𝑝𝑟𝑒́ℎ𝑒𝑛𝑠𝑖𝑜𝑛 𝑑𝑒𝑠 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑢𝑠 𝑚𝑒́𝑡𝑖𝑒𝑟 : 𝐹𝐼 𝐶𝑂, 𝑆𝐷 𝑀𝑀, 𝐻𝑅 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐈𝐧𝐭𝐞𝐫𝐯𝐞𝐧𝐢𝐫 𝐝𝐚𝐧𝐬 𝐮𝐧 𝐞𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐜𝐨𝐦𝐩𝐥𝐞𝐱𝐞, 𝐢𝐧𝐭𝐞𝐫𝐧𝐚𝐭𝐢𝐨𝐧𝐚𝐥, 𝐦𝐮𝐥𝐭𝐢-𝐬𝐲𝐬𝐭𝐞̀𝐦𝐞 (𝐒𝐀𝐏 & 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬 𝐭𝐢𝐞𝐫𝐜𝐞𝐬) 𝐚𝐯𝐞𝐜 𝐝𝐞𝐬 𝐞𝐧𝐣𝐞𝐮𝐱 𝐟𝐨𝐫𝐭𝐬 𝐚𝐮𝐭𝐨𝐮𝐫 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐢𝐭𝐞́ 𝐛𝐮𝐬𝐢𝐧𝐞𝐬𝐬 𝐞𝐭 𝐥𝐚 𝐪𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. - Assurer la cohérence et la fiabilité des intégrations - Piloter les activités de migration de données et de cutover - Garantir la continuité des processus métiers (Finance, RH...etc.) - Avoir un rôle de référent transverse 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2/3j semaine sur site 🕐 ASAP - 3 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
CDI
CDD

Offre d'emploi
Développeur BackEnd Java Reporting (Luxembourg)

EXMC
Publiée le
Java
Jenkins
Reporting

1 an
Luxembourg
Dans ce cadre, la prestation consiste à contribuer à/au(x) : •L'évolution d’applications de pilotage et de reporting •La mise en place de la conception et le développement des nouvelles fonctionalités de reporting •L'analyse et résolution des problèmes •Evolutions d’architecture du SI de reporting •Découpage et au chiffrage des développements à mettre en place sur la base de user stories •Documentation technique des développements •Mise en place et maintien des tests unitaires des développements •Support de production •Release management et à la mise en production des différents livrables produits •L'assistance sur la plateforme d'integration continue (Jenkins, Nexus, Sonar, XlDeploy, Docker) •La réduction de la dette technique et l'amélioration de la couverture des tests Les livrables attendus sont : •Développements des fonctionalités spécifiées par les différents Utilisateurs et/ou Bénéficiaires. •Documentation des développements •Tests unitaires des développements •Suivi dans JIRA •Mises en production •Support

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1232 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous