Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 672 résultats.
Freelance
CDI

Offre d'emploi
Chef de Projet Observabilité & IA

OBJECTWARE
Publiée le
Agile Scrum
Dynatrace

1 an
40k-65k €
400-500 €
Montpellier, Occitanie
Dans le cadre du renforcement de la gouvernance et de la modernisation des pratiques d’observabilité, notre client recherche un Chef de Projet Observabilité & IA capable de piloter les initiatives clés, structurer les besoins, coordonner les équipes et garantir la bonne exécution des projets autour de Dynatrace, de l’IA appliquée au run et de la gestion des certificats. Vous interviendrez au cœur des équipes Exploitation, SRE, Dev, Sécurité et Architecture pour orchestrer les chantiers et contribuer à l’amélioration continue de la fiabilité du SI. Vos responsabilités principales : Piloter les projets Observabilité, IA appliquée au run, et gestion des certificats. Coordonner les équipes pluridisciplinaires (Exploitation, SRE, Dev, Sécurité, Architectes). Animer les COPIL, produire le reporting et assurer le suivi budgétaire. Structurer les besoins, définir les priorités et organiser la feuille de route. Contribuer à la gouvernance Observabilité (alignement, cohérence, priorisation). Accompagner l’adoption des pratiques d’observabilité et des usages IA au sein des équipes.
Freelance
CDI

Offre d'emploi
Product Owner Data / IA

VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management

1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Freelance

Mission freelance
Ingénieur DevOps / SRE – Cloud & Kubernetes (AWS/GCP)

JobiStart
Publiée le
DevOps

3 ans
400-550 €
Paris, France
L’Environnement de Travail & Le Contexte Vous intégrez une équipe technique de haut niveau au sein d'une structure établie ("Cadre Pro") pour une mission de longue durée . Vous évoluerez dans un contexte Multi-Cloud (AWS & GCP) exigeant, où la performance, la sécurité et la disponibilité sont critiques. Organisation : Travail en mode hybride équilibré ( 2 jours de présentiel / 3 jours de télétravail). Atmosphère : Environnement technique riche, favorisant l'autonomie et l'expertise. 🚀 Votre Mission : Fiabilité, Scalabilité & Automatisation En tant que SRE / DevOps, votre rôle est de garantir la robustesse de l'infrastructure et l'efficacité de la chaîne de déploiement (CI/CD). Infrastructure & Orchestration : Gestion et optimisation des clusters Kubernetes . Mise en place de stratégies de scaling avancé ( HPA - Horizontal Pod Autoscaling) pour absorber les pics de charge. Administration d'environnements Cloud hybrides ( AWS / GCP ). Déploiement & Automatisation (CI/CD) : Industrialisation des pipelines de déploiement via GitHub Actions . Implémentation de l'approche GitOps avec ArgoCD . Automatisation et scripting (notamment en Python ). Performance & Sécurité : Optimisation des performances web et gestion des CDN . Intégration des normes de Sécurité (DevSecOps) dès la conception. Garantie des niveaux de service ( SLA ) et monitoring de la production. Support Applicatif : Accompagnement des équipes de développement sur l'écosystème applicatif (stack incluant PHP ).
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Freelance

Mission freelance
Proxy Product Owner ( H/F)

ALLEGIS GROUP
Publiée le
AWS Cloud
PostgreSQL
Proxy

3 jours
Neuilly-sur-Seine, Île-de-France
Teksystems recherche un proxy PO Bilingue pour un de ses clients grand compte . En tant que Proxy Product Owner, votre rôle sera de : • Construire et porter la vision produit en collaboration avec les Product Owner & Product Manager • Aider au cadrage des besoins fonctionnels • Accompagner les équipes dans l’appropriation et compréhension des éléments du backlog • Accompagner l’équipe des testeurs dans la définition des cas d’usages et tests E2E et s’assurer que les produits développés répondent bien aux besoins fonctionnels et techniques
CDI
Freelance

Offre d'emploi
Ingénieur Sécurité / Cyber – Cluster IA (H/F)

Scalesys
Publiée le

12 mois
France
📋 RÉSUMÉ Nous recherchons un Ingénieur Sécurité / Cyber spécialisé dans les environnements d’intelligence artificielle afin de renforcer la sécurité des infrastructures, plateformes et pipelines liés aux projets IA. Vous interviendrez sur la conception, la mise en œuvre et l’amélioration continue des mécanismes de cybersécurité dans un environnement technique exigeant et innovant. 🎯 MISSIONS Concevoir et mettre en œuvre des architectures de sécurité pour les environnements IA et data Analyser les risques liés aux infrastructures, aux modèles IA et aux flux de données Mettre en place des contrôles de sécurité sur les plateformes de calcul, clusters et pipelines ML Participer à la définition et à l’application des politiques de sécurité et des standards cyber Réaliser des audits de sécurité et identifier les vulnérabilités Mettre en œuvre des mécanismes de protection des données sensibles et des modèles IA Collaborer avec les équipes infrastructure, data et développement pour sécuriser les environnements Participer à la gestion des incidents de sécurité et à l'amélioration continue des dispositifs cyber 📦 LIVRABLES Architecture de sécurité des environnements IA Rapports d’audit et analyses de vulnérabilités Plans de remédiation et recommandations de sécurité Documentation des procédures et standards de sécurité Tableaux de bord et indicateurs de sécurité
Freelance

Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance

Mission freelance
Ingénieur Cloud AWS N3

AIS
Publiée le
AWS Cloud

6 mois
400-550 €
Courbevoie, Île-de-France
La DSI Groupe est organisée autour de Shared Line of Services afin de fournir des services globaux à l’ensemble des entités du groupe. Le périmètre Infrastructure délivre : des services Cloud (AWS & Azure), des services réseaux centralisés : Backbone, VPN site-à-site, filtrage Internet, VPN utilisateurs, IPAM, SD-WAN. L’objectif est de garantir un haut niveau de qualité, de sécurité et de conformité sur des environnements AWS complexes, dans un contexte international. Synthèse du rôle Rattaché(e) au Team Lead Cloud AWS Intervention Niveau 3 sur les activités RUN & projets , sous la responsabilité du Cloud Service Delivery Manager Basé(e) en France , en collaboration étroite avec les équipes BAU en Inde Rôle clé dans : la gestion des incidents et changements, la gouvernance Cloud, l’automatisation, la transition des services vers les équipes internes Environnement global avec rotations horaires
Freelance

Mission freelance
Tech Lead Data Engineer Java Python Azure

Cherry Pick
Publiée le
Azure
Java
PySpark

12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Freelance

Mission freelance
Data Scientist orienté Marketing- H/F

Wekey
Publiée le
Data science

6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Freelance

Mission freelance
Product Manager IA

MEETSHAKE
Publiée le
IA
Product management
SaaS

1 an
France
Pour le compte de l'un de nos clients finaux, une Scale-up en pleine croissance qui révolutionne le secteur des avantages salariés et de l'engagement collaborateur, nous recherchons un Product Manager (H/F) passionné par l'innovation et l'intelligence artificielle. Au sein d'une équipe agile et rattaché(e) directement à la direction produit, votre mission sera de porter la vision sur les sujets de demain : Discovery & Innovation IA : Identifier comment l'IA (LLMs, agents, automatisation) peut transformer l'usage des avantages sociauré et personnaliser l'expérience utilisateur (recommandations intelligentes, prédictions de besoins). Stratégie & Roadmap : Être une véritable force de proposition pour définir les priorités et arbitrer les fonctionnalités à fort impact métier. Product Delivery : Piloter le cycle de vie des fonctionnalités, de la conception des user stories à la mise en production, en lien étroit avec les équipes tech. Analyse de la Performance : Suivre les KPIs et les feedbacks utilisateurs pour itérer rapidement sur le produit.
Freelance
CDI
CDD

Offre d'emploi
consultant senior Devops Openshift

CBX Conseil ( CBX Group )
Publiée le
Azure Kubernetes Service (AKS)
Docker
Openshift

3 ans
40k-50k €
400-550 €
Paris, France
Contexte de la mission – Cadre du projet Le consultant intervient sur des plateformes OpenShift 4.x dans un contexte Cloud Native à forts enjeux d’industrialisation, de sécurité et de disponibilité. Les environnements sont critiques ( Bancaire) , multi-équipes et souvent en production. Il accompagne les équipes projet, infra et sécurité sur des plateformes existantes ou en transformation. La mission s’inscrit dans une démarche DevOps/GitOps mature. La dimension expertise, conseil et transmission des bonnes pratiques est centrale tout au long du projet. Mission – Tâches au quotidien Administrer et maintenir des clusters OpenShift : ressources, projets, quotas, sécurité et troubleshooting avancé. Intervenir en build et en run sur des incidents complexes. Concevoir et déployer des architectures Cloud Native robustes, en appliquant les bonnes pratiques Kubernetes et CI/CD. Participer à l’industrialisation des déploiements applicatifs. Mettre en œuvre et optimiser les pipelines DevOps (Jenkins, ArgoCD, GitLab/GitHub). Accompagner les équipes en tant que référent technique.
Freelance

Mission freelance
Expert Réseau

Codezys
Publiée le
Active Directory
AlgoSec
Azure

12 mois
Courbevoie, Île-de-France
Contexte de la mission Equans France recherche un expert confirmé en réseau et sécurité pour renforcer sa Direction des Systèmes d'Information (DSI) dans le cadre des activités de la ligne de service (SLS) infrastructures. Les SLS représentent les axes de conception et d'exploitation des services centraux d'Equans, utilisés par l'ensemble des Business Units (BU). La BU France est responsable de la ligne de services Infrastructures, couvrant à la fois les fournisseurs cloud AWS et Azure, ainsi que les services réseaux et sécurité centraux de l'entreprise. Ces services incluent notamment : Internet Access Private Access Firewalling SD-WAN VPN IP Address Management (IPAM) Registrar LAN et Wi-Fi li>Network Access Control (NAC) Objectifs et livrables Fournir une expertise approfondie dans les domaines du réseau, notamment SD-WAN, NAC et LAN/WLAN. Participer activement aux projets de déploiement réseau, en particulier pour les solutions SD-WAN, NAC et LAN/WLAN. Proposer des améliorations continues sur les services réseau afin de les aligner avec la stratégie globale du groupe. Servir de point d’escalade pour la gestion des incidents critiques et des événements majeurs liés au réseau. Réaliser des tests en environnement de maquette pour valider les solutions et configurations techniques, budgétaires et opérationnelles. Élaborer, maintenir et mettre à jour la documentation technique relative aux infrastructures réseau. Contribuer à la transition vers une exploitation opérée par une équipe en Inde, assurant ainsi la continuité et la robustesse du service.
5672 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous