Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 709 résultats.
Freelance
CDI

Offre d'emploi
EXPERT CNAPP / CWPP

Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
50k-70k €
500-600 €
Paris, France
🎯 Missions principales : - Piloter et réaliser le déploiement des agents de sécurité CWPP sur les environnements conteneurisés (Kubernetes, Docker…) et VM, en garantissant leur intégration et leur fonctionnement optimal. - Participer à la mise en œuvre et à l’amélioration continue de la plateforme de sécurité cloud, en tenant compte des besoins métiers et des risques identifiés. - Assurer la gestion et la supervision des solutions CWPP, avec un focus particulier sur la protection des workloads dans un environnement multicloud (Azure,GCP, AWS, Alibaba Cloud etc...). - Collaborer étroitement avec les équipes cloud, sécurité et opérations pour assurer la conformité et la robustesse des protections mises en place. - Participer à des activités de project management : planification, suivi des déploiements, gestion des risques et coordination avec les parties prenantes. - Rédiger la documentation technique, les procédures et les guides d’utilisation, tout en animant des formations ou ateliers internes si besoin. - Rester à la pointe des évolutions technologiques dans le domaine CWPP et proposer des améliorations pour renforcer la posture sécurité cloud.
Freelance

Mission freelance
Data Engineer GCP confirmé

Publiée le

10 mois
Lille, Hauts-de-France
Nous accompagnons actuellement un client final basé en Île-de-France , qui recherche un Data Engineer confirmé/expert GCP pour renforcer son équipe pluridisciplinaire (Data Engineer, DevSecFinOps). Contexte & missions principales : RUN : Maintien en condition opérationnelle (RDO multi-sources, 15 applications), gestion des incidents, suivi des flux, mise en production via Git. BUILD : Conception & développement de solutions data (BigQuery, Data Lake, SQL), modélisation sous gouvernance data, intégration Supply Chain, tests & reporting. EXPERTISE : Apport d'expertise GCP, montée en compétences sur le SI, approche FinOps (maîtrise et optimisation des coûts cloud). Livrables attendus : météo quotidienne, remontées d'alertes, scripts & requêtes, documentations, états d'avancement. Compétences requises : Expert impératif : GCP (BigQuery, Data Lake, SQL), GitLab, Terraform Confirmé : Script Shell, IWS, Airflow Langues : Français courant (impératif), Anglais bon niveau Informations pratiques : Démarrage : ASAP Localisation : Île-de-France (hybride) Durée : mission longue possible Contexte : client final - pas de sous-traitance Montreal Associates is acting as an Employment Business in relation to this vacancy.
Freelance

Mission freelance
Data Engineer (H/F)

Publiée le
Git
Google Cloud Platform (GCP)

2 ans
100-435 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."
Freelance

Mission freelance
Data analyst

Publiée le
Cognos
Google Cloud Platform (GCP)
Microsoft Power BI

1 an
400-430 €
Lille, Hauts-de-France
Télétravail partiel
Contexte du poste Dans le cadre du déploiement du WMS GROUP basé sur la solution SAAS Manhattan active, nous recherchons un Data Analyst Maitrisant pour accompagner l’équipe projet. Le projet est actuellement en phase de build, avec un premier démarrage de site prévu pour avril 2026. Ce poste est une belle opportunité au cœur d’un projet stratégique et international. Missions : *Participer à la conception des indicateurs clés de performance (KPI) liés à l'activité logistique *Réaliser des rapports et dashboards via Microsoft Power BI, Jasper et Manhattan SCI (Technologie IBM Cognos) *Écrire des requêtes SQL complexes et optimisées *Travailler avec les équipes métiers (logistique, data, IT en BU) pour comprendre les besoins et y répondre de manière pertinente *Participer à l'écriture des spécifications *Participer à la phase de recette des rapports, en lien avec les équipes projets *Contribuer à la documentation des rapports, sources de données, KPIs, etc.
Freelance

Mission freelance
Analyste Technique Grid Computing

Publiée le
Bash
Calcul hautes performances (HPC)
DevOps

1 an
330-480 €
Paris, France
Télétravail partiel
Le consultant interviendra au sein d'une équipe de développeurs pluridisciplinaires responsables du maintien de solutions de distribution et de calcul intensif (finance de marché). Le logiciel développé en C++ est capable de gérer des calculs On Premise ou sur le Cloud grâce à un autre composant stratégique. D'autres logiciels sont également développés par l'équipe pour gérer la distribution de tâches et exécuter massivement des programmes jusqu'en production. L'équipe est également responsable de la maintenance de composants bas niveau. Objectif de la mission : Dans le cadre de cette recherche, nous souhaitons compléter l'équipe de développeurs avec un(e) consultant(e) capable de les accompagner dans le cycle de vie des développements réalisés. Le rôle consistera à prendre en charge la validation technique et fonctionnelle de leurs développements, afin de garantir un déploiement serein en pré-production puis en production. Étant donné qu'il s'agit d'applications internes, de calculs intensifs, parallèles et distribués dans un contexte exigeant, ce rôle est stratégique pour le maintien en conditions opérationnelles des systèmes HPC qui sont au cœur de l'écosystème IT de la CIB. La mission comprendra les responsabilités suivantes : Monter en compétences sur les composants développés dans l’équipe et acquérir un niveau suffisant pour assurer un support de niveau 3. Mettre en place un environnement de test pour valider les différents composants susceptibles d’être livrés et éligibles à un processus de validation massif en vue d’une mise en pré-production/production. Produire des rapports techniques et fonctionnels des tests pour les intégrer aux Jiras de développement à des fins d'audit. Assurer le support de niveau 3 des solutions présentes dans le catalogue de l’équipe.
Freelance

Mission freelance
Data Analyst DBT GCP

Publiée le
Apache Airflow
BigQuery
DBT

6 mois
400-420 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié
Freelance

Mission freelance
Développeur Full Stack

Publiée le
Apache Kafka
Front-end
Git

12 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Objectif global :Développer les flux et l'interface utilisateur support du WMS Platform Contrainte forte du projet: Environnement GCP Les livrables sont Interfaces Tests automatisés Déploiement sur le cloud Compétences techniques Java - Confirmé - Impératif Spring boot - Confirmé - Impératif Documentation - Expert - Important Front end - Confirmé - Serait un plus Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée Démarrage idéalement en novembre 2025 Temps partiel accepté sur le premier mois de démarrage Contexte : secteur logistique Contexte de la mission Nous recherchons un développeur Full-stack (back-end ++) expérimenté pour renforcer notre équipe IT WMS (Warehouse Management System) et développer les flux entrants et sortants du produit ainsi que l'interface utilisateur des futurs runners de l'équipe. Vous évoluerez dans un environnement technique solide et collaborerez avec des développeurs, architectes et product managers, dans un contexte cloud-first (GCP) et orienté qualité logicielle. Stack & compétences techniques attendues indispensables : Java (5 ans minimum) Spring Boot GIT SQL Kafka Rigueur sur la qualité de code et la documentation GCP (Pub/Sub, Bucket, Bigquery…) Connaissances appréciées : Notions d’architecture de flux et gestion des échanges de données (Synchrone / Asynchrone) Connaissance approfondis des processus technique d'authentification (SCIM) Connaissance du domaine logistique entrepôt et idéalement d'un des WMS de Manhattangcp
Freelance

Mission freelance
Architecte DevOps SRE

Publiée le
Ansible
AWS Cloud
CI/CD

1 an
400-550 €
Ille-et-Vilaine, France
Nous recherchons pour l'un de nos clients, un(e) Architecte DevOps SRE pour faire évoluer l'infrastructure, les pratiques et les outils en place, tout en garantissant la fiabilité, la scalabilité et la performance des systèmes de production. Vous aurez pour mission principale de mettre en œuvre une architecture DevOps performante et durable, tout en renforçant la culture SRE au sein de l'organisation. Vous interviendrez sur l’ensemble des phases de la transformation et travaillera en étroite collaboration avec les équipes internes (Développement, Infrastructure, Sécurité, etc.) A ce titre, vos principales tâches seront les suivantes : 1. Analyse et diagnostic : Évaluer l’existant en termes de pratiques DevOps, d’infrastructure et d’automatisation. Identifier les leviers d’amélioration et définir une feuille de route pour la transformation du modèle opérationnel. 2. Architecture et mise en place des pratiques DevOps : Concevoir et implémenter une architecture DevOps adaptée aux besoins du client. Automatiser les processus de livraison et de déploiement via des outils CI/CD. Intégrer les pratiques d’infrastructure as code (IaC) et de gestion de la configuration (ex : Terraform, Ansible). Optimiser la gestion des pipelines et le versioning des applications. 3. Mise en place de la culture SRE : Définir des métriques et des SLAs pour garantir la disponibilité et la performance des services. Développer et automatiser des stratégies de monitoring, de gestion des incidents et de gestion des performances (observabilité, alerting, logs centralisés). Mettre en œuvre des stratégies de résilience des systèmes et des tests de charge. Accompagner les équipes internes dans la mise en œuvre des pratiques SRE pour la gestion proactive des incidents et des pannes. 4. Amélioration continue : Concevoir des processus d’amélioration continue pour optimiser la gestion des opérations, la collaboration entre les équipes de développement et d’infrastructure. Piloter les actions de remédiation post-mortem pour éviter la récurrence des incidents. Sensibiliser les équipes à l’importance de la culture DevOps et SRE. 5. Accompagnement et transfert de compétences : Former et accompagner les équipes internes sur les bonnes pratiques DevOps et SRE. Créer des documents techniques et des guides pratiques pour assurer l’autonomie des équipes dans la gestion des processus DevOps et SRE. Assurer un suivi régulier de l’évolution des pratiques et des outils
Freelance

Mission freelance
Administrateur Google Workspace (Niort - 3 jours par semaine sur site)

Publiée le
Google Cloud Platform (GCP)

12 mois
400-420 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre de la gestion de sa Digital Workplace, un grand groupe mutualiste ayant fait le choix de la solution Google Workspace (déployée auprès de plus de 13 000 collaborateurs), recherche un Ingénieur de production pour intervenir au sein de l’équipe Service Delivery du département IT interne. Le consultant interviendra en renfort de l’équipe en charge de l’administration, du maintien en condition opérationnelle et de l’évolution de la plateforme Google Workspace , en lien étroit avec les experts de la solution. 🛠️ Missions principales Le consultant intégré à l’équipe aura en charge : La supervision de l’ensemble des outils de la plateforme Google Workspace. Le diagnostic, traitement et résolution des incidents techniques et utilisateurs (niveaux 2 et 3). La mise en œuvre des évolutions (demande de services, changements, optimisations). La rédaction des documents d’exploitation et de support technique/fonctionnel. L’ accompagnement des phases de tests et le déploiement en production . La production des PV de validation des exigences non fonctionnelles. La rédaction de la documentation d’installation, de configuration et des guides d’usage à destination des équipes de support N1/N3. Le respect des SLA et des processus ITSM en matière de gestion des incidents et des demandes. ✅ Livrables attendus Documentation technique (installation, configuration, exploitation) PV de validation des exigences non fonctionnelles Guides utilisateurs et supports pour le support N1/N3 Reporting des incidents et suivi des demandes (dans le respect des SLA) Participation aux comités techniques ou d’évolution (si nécessaire)
Freelance

Mission freelance
Data Engineer GCP – Freelance (H/F)

Publiée le
Google Cloud Platform (GCP)

1 an
400-630 €
Île-de-France, France
Télétravail partiel
Missions Concevoir, développer et industrialiser des pipelines (batch/near-real-time) robustes et scalables. Modéliser les données et déployer des datasets normés (ex. utilisateurs, comportements, référentiels). Mettre en place le contrôle qualité (tests, règles, SLA, observabilité) et la gouvernance/catalogue . Orchestration, CI/CD et Infra as Code pour des déploiements reproductibles. Garantir sécurité, stabilité et performance des traitements. Documenter (technique & runbooks) et accompagner les équipes utilisatrices (vulgarisation, bonnes pratiques). Assurer la veille et la standardisation des patterns/outils data. Livrables Pipelines production-ready avec documentation et monitoring. Framework qualité (règles, tests, dashboards). Datasets normés publiés et référencés dans le catalogue. Guides d’exploitation / transfert de compétences. Stack & outils Langages : Python, SQL. Traitements : dbt , Spark (selon besoins). Data Warehouse : BigQuery . Gouvernance/Catalogue : Dataplex (Universal Catalog) . Orchestration : Airflow . CI/CD : GitLab & GitLab CI/CD . Infra as Code : Terraform & Terragrunt . Cloud : GCP .
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Freelance

Mission freelance
Data engineer GCP SPARK PYTHON

Publiée le
Python

18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
DEVOPS

Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes

12 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
Kubernetes - Confirmé - Impératif Google Cloud Platform (GCP) - Confirmé - Impératif Terraform - Confirmé - Impératif Datadog - Confirmé - Important Connaissances linguistiques: Anglais Professionnel (Impératif) Missions : - Diffuser auprès des équipes de développement les bonnes pratiques liées aux Opérations. - Déploiement d’infrastructures et configuration d’environnements (hors-production et production). - Mise en place de chaînes de CI/CD. - Accompagnement des équipes dans la mise en œuvre de leur observabilité (monitoring et alerting, SLI/SLO). - Participation aux analyses avec les équipes en cas d’incident, définition et mise en œuvre de plans d’action suite aux post-mortems. - Proposer des solutions pour améliorer les performances, la sécurité des systèmes ou des plateformes. - Mener une démarche FinOps afin de fournir le bon service au juste coût et la diffuser auprès des équipes (mise en oeuvre des bonnes pratiques, suivi des consommations, mise en place de plans d’action si nécessaire) - Participer au Run transverse sur le domaine (prise en charge de tickets créés par nos Business Units utilisatrices en amont des équipes produit). - Participer aux astreintes sur le domaine (rotation avec les autres Ops de l'équipe).
Freelance

Mission freelance
Développeur java/vuejs

Publiée le
Apache Kafka
API REST
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Télétravail partiel
Pour mi-novembre 2025, nous recherchons 1 développeur fullstack expérimenté Java (kotlin) / SpringBoot / Hibernate / Vue, afin d'intégrer l'équipe. Nos développeurs prennent en charge la conception technique, le développement, les tests unitaires, et la maintenance des services développés. Caractéristiques du produit : - calcul de profitabilité et KPI sur les prix d'achats, les marges, etc. - produit critique déployé dans plusieurs BUs - produit Cloud Native sous GCP, avec environ 40% de périmètre métier restant à écrire - refonte technique à lancer afin d'augmenter le périmètre des KPI demandés par nos clients internes / tenue à la charge / performance / APIsation - 80% backend / 20% frontend: le même niveau d'expertise est attendu - organisation: 4 développeurs en hybride (2 experts, 1 maîtrisant et 1 junior), 1 techlead à mi-temps, 1 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Expérimenté en Java (kotlin) / SpringBoot / Hibernate / Vue (Nest.js pour le BFF, à la marge) - Expérience de développement avérée d'API REST dans des SI complexes / haute performance sur calculs / haute disponibilité (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging Kafka - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure Ce qui fait la différence - Software craftmanship / Clean code / Tests - Connaissances DDD / Archi hexa / patterns d'archi - Développement agile - Utilisation de l'IA pour accélérer le développement de nouvelles features et améliorer la qualité du delivery Notes - Le recrutement vise à renforcer la séniorité de l'équipe - Une forte capacité à la communication (pédagogie) et à la formalisation est exigée (conception, diagrammes, présentation des solutions) - Prise de recul, positivité et adaptabilité sont nécessaires pour la réussite de la mission, qui seront clés pour la tenue de notre roadmap Sa durée est de 3 ans, avec présence site obligatoire les lundi, mardi et jeudi. Un recrutement local métropole Lille est fortement souhaité afin de créer une proximité entre membres de l'équipe. Un premier entretien aura lieu pour évaluer le parcours : des exemples concrets de réalisation ou de démarches de conceptions sont attendus durant l'entretien. Un second entretien technique (tests, archi, conception) sera organisé si concluant.
Freelance
CDI

Offre d'emploi
Consultant(e) Data Science Cloud GCP

Publiée le
Data science
Google Cloud Platform (GCP)
SQL

3 ans
40k-60k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour le compte de l’un de nos clients grands comptes, nous recherchons un(e) Consultant(e) Data Science spécialisé(e) Cloud GCP pour une mission stratégique à haute valeur ajoutée. Vous interviendrez au sein d’équipes Data sur des projets de transformation digitale, de valorisation de la donnée et d’industrialisation de modèles. Compétences techniques : Google Cloud Platform (GCP) – Maîtrise des services data (BigQuery, Dataflow, etc.) SQL – Bon niveau requis Python (atout apprécié pour les traitements de données et les modèles ML) Data Engineering / Data Science – Connaissances en modélisation et pipelines data Compétences linguistiques : Anglais courant obligatoire (oral et écrit – environnement international) Soft skills : Excellentes compétences en communication Capacité à vulgariser des problématiques techniques auprès des équipes métiers Esprit d'équipe et sens du service
Freelance

Mission freelance
Architecte technique

Publiée le
Azure DevOps
CI/CD
Docker

24 mois
450-650 €
Île-de-France, France
Pour le compte de l' un de nos clients dans le domaine du retail, nous recherchons un Architecte technique. Vos missions principales seront: de définir l' architecture technique des socles hébergeant des solutions applicatives de verifier et analyser les impacts techniques des nouvelles solutions sur l' existant de preconiser les choix techniques en vue d'assurer la cohérence du SI; d'organiser les choix de veille technologique de participer aux revues d'architecture projets Cette mission est à 100% présentiel
2709 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous