Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 654 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps IA

VISIAN
Publiée le
Linux
Python
Terraform

1 an
40k-45k €
400-740 €
Paris, France
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés Systèmes d'exploitation : Maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack. Sécurité & conformité : DevSecOps, gestion des vulnérabilités (SonarQube, Snyk, Aqua Security), conformité RGPD.
Freelance

Mission freelance
Consultant Senior / Manager IA – Mission freelance

Mon Consultant Indépendant
Publiée le
IA

12 mois
880-910 €
Monaco
Nous recherchons un Consultant Senior / Manager freelance en stratégie et transformation digitale disposant d’une expertise confirmée en intelligence artificielle. Le consultant interviendra notamment sur : Le cadrage stratégique et la structuration de trajectoires de transformation La priorisation d’initiatives digitales et de dispositifs IA La mise en place de cadres de gouvernance adaptés Le pilotage de projets jusqu’à leur mise en œuvre opérationnelle L’accompagnement du passage à l’échelle et de l’adoption Profil recherché : Expérience en cabinet de conseil Solide expérience en pilotage de projets de transformation Expérience concrète dans le déploiement et l’industrialisation de dispositifs IA Présence régulière sur site requise (au moins 3 jours) - Localisation en région PACA nécessaire.
CDI

Offre d'emploi
Ingénieur DevSecOps

REDLAB
Publiée le
Ansible
Apache
GitLab CI

40k-46k €
Lyon, Auvergne-Rhône-Alpes
Pour notre client, nous recherchons un ingénieur DevSecOps. Au sein d'une équipe de 6 personnes, notre client recherche un Ingénieur DevSecOps orienté Sécurité/PKI * Projet de MCO / RUN sur un produit dans les zones sécurisées, une expérience en exploitation est indispensable. Projets : Mise à plat des gestes d’exploitations (MCO et le MCS du service) en vue de former un infogérant sur tout ou partie des gestes, Finaliser les outils d’exploitation (supervision, exploitation des logs ….), Mise à jour la documentation du service et insertion dans le catalogue de service du client Poursuivre l’automatisation des gestes d’exploitation…
Freelance
CDI

Offre d'emploi
Ingénieur Cloud (AWS/GCP)

Lùkla
Publiée le
Ansible
AWS Cloud
Cloud

1 an
50k-55k €
400-500 €
Île-de-France, France
Ingénieur RUN Cloud AWS / GCP Dans le cadre d’une mission de support et d’expertise, vous interviendrez principalement sur site (3 jours sur site, 2 jours de télétravail par semaine) afin d’assurer le RUN des infrastructures Cloud. Vous assurerez le support technique de niveau 3 sur des environnements Cloud AWS et GCP, en prenant en charge l’analyse, le diagnostic et la résolution des incidents en production. Vous serez également responsable de la gestion des changements, des demandes de droits, de la correction des vulnérabilités et du traitement de l’obsolescence. Vous participerez à la rédaction et à la mise à jour des documentations RUN, des procédures de support et des rapports de post-mortem. Vous travaillerez en étroite collaboration avec des équipes internationales, en anglais, et contribuerez à la montée en compétence des équipes RUN. L’expertise attendue porte sur Terraform, les environnements Cloud AWS et GCP, les outils de déploiement automatisés et les pipelines CI/CD (GitLab CI, Ansible, AWX, Jenkins), ainsi qu’une bonne maîtrise de Python et des technologies Kubernetes. La maîtrise de l’anglais oral et écrit est indispensable.
CDI

Offre d'emploi
Data Analyst

CAT-AMANIA
Publiée le
Business Object
Qlik Sense

40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance

Mission freelance
Data Engineer Senior - Data Warehouse

Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory

6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Freelance
CDI
CDD

Offre d'emploi
Consultant IGA / SailPoint – Gouvernance & Comptes à privilèges

RIDCHA DATA
Publiée le
IAM
Product Information Management (PIM)
sailpoint

1 an
Île-de-France, France
🎯 Contexte Dans le cadre de l’évolution de la solution de gouvernance des identités (IGA) , la mission vise à enrichir le dispositif existant afin de : Renforcer les campagnes de re-certification des droits d’accès Mettre en place une solution de Privileged Identity Management (PIM) Optimiser la synchronisation entre instances SailPoint La prestation est organisée en 2 lots . 🛠️ Missions principales🔹 Lot 1 – Gouvernance & Architecture IGA Mise en place de campagnes de re-certification des droits d’accès pour applications sensibles (classification A/B) Étude, comparaison et choix d’une solution PIM Conception et implémentation de la solution PIM Mise en place du connecteur SCIM SailPoint IdentityIQ (IIQ) pour synchronisation inter-instances Mise à jour de la documentation d’architecture IAG 🔹 Lot 2 (optionnel) – Conduite du changement Définition du plan de conduite du changement (communication, procédures, webinars) Accompagnement des administrateurs d’applications (ADA) Déploiement des campagnes de re-certification 📦 Livrables attendus Mise à jour du document de conception IAG Document de comparaison & choix solution PIM Document de conception & implémentation PIM Plan de communication relatif aux campagnes de re-certification Comptes rendus d’avancement en mode Agile ⚙️ Compétences techniques Impératif : Expertise IGA (Identity Governance & Administration) SailPoint IdentityIQ 8.4+ Mise en œuvre de solution PIM Gouvernance des comptes à privilèges Important : SCIM Architecture IAM Connaissance des environnements sensibles / données classifiées
Freelance
CDI

Offre d'emploi
Data Analyst ESG (Proxy Product Owner / Reporting) – Longue durée

AVA2I
Publiée le
AWS Cloud
ESG
KPI

3 ans
57k-68k €
500-600 €
Île-de-France, France
Nous recherchons un(e) Data Analyst spécialisé(e) ESG , avec une expérience sur des projets de construction/refonte de SI et une vraie capacité à faire le lien entre métier et IT . 🎯 Contexte Le programme vise à industrialiser et fiabiliser les données ESG pour plusieurs directions métiers (Capital Markets, Financements structurés, Trade Finance, etc.). Le/la consultant(e) interviendra à la fois sur la construction du SI , la qualité de données , et la production d’analyses/reportings . ✅ Mission 1 – Proxy Product Owner (Data / ESG) En tant que relais du Business Data Officer, vous intervenez sur : Recueil des besoins data auprès des consommateurs ESG (Capital Markets, Trade Finance, Origination, etc.) Conception des modèles de données ESG Garantie de la qualité / fiabilité des données produites Élaboration des plans de tests Participation aux UAT Contribution à la conception et au développement avec les équipes IT Participation aux travaux de gouvernance data : dictionnaire de données, lineage, etc. ✅ Mission 2 – Analyse & Reporting Vous prenez en charge : Collecte, analyse et interprétation des données métier issues de sources multiples Création et maintien de tableaux de bord / rapports KPI Identification des tendances, anomalies et axes d’amélioration Analyses ad hoc pour différents départements Contrôle qualité et fiabilité des données analysées Documentation des méthodologies et processus d’analyse
Freelance
CDI
CDD

Offre d'emploi
Consultant IAM / Zero Trust – Audit & Rationalisation Okta

RIDCHA DATA
Publiée le
IAM
MFA
okta

1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’une stratégie Zero Trust à grande échelle (BYOD / BYOL et remplacement du VPN), la mission consiste à faire évoluer et rationaliser l’architecture d’authentification ainsi que les processus de gestion des identités. La prestation est structurée en 2 lots : Lot 1 : Études & rationalisation architecture IAM Lot 2 (optionnel) : Continuité de service & bascule IDP 🛠️ Missions principales🔹 Lot 1 – Études & optimisation Rationalisation de l’architecture d’authentification (Okta / Zscaler ZIA & ZPA) Étude du provisioning utilisateurs (SCIM ou autre mécanisme) Simplification des règles d’éligibilité aux solutions d’accès sécurisé Industrialisation et déploiement de FastPass sur postes Windows & MacOS Intégration d’applications filiales dans l’écosystème Okta Participation aux rituels Agile 🔹 Lot 2 – Continuité & sécurisation Définition d’une procédure de bascule vers un autre IDP en cas d’indisponibilité prolongée Documentation des scénarios de continuité d’activité 📦 Livrables attendus Mise à jour du document de conception de la politique Zero Trust Plan de communication pour le déploiement global d’Okta Verify Documentation des changements de configuration Okta & écosystème Procédure de bascule IDP (PRA / continuité de service) Comptes rendus d’avancement réguliers ⚙️ Compétences techniques Impératif : Expertise IAM (Identity & Access Management) MFA & solutions d’authentification Okta (architecture, provisioning, intégration applicative) Protocoles SAML, OAuth2, OpenID Connect Important : Zscaler (ZIA / ZPA) SCIM Gouvernance des identités (IGA) Environnements Zero Trust
CDI

Offre d'emploi
Data Scientist Expérimenté F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Deep Learning
Git

Le Plessis-Robinson, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Développeur CRM Salesforce Service Cloud

Mon Consultant Indépendant
Publiée le
Azure
Microsoft Power BI
Node.js

12 mois
300-400 €
Nantes, Pays de la Loire
Contexte : Dans le cadre du renforcement d’un pôle digital dédié aux services clients, nous recherchons 3 Développeurs CRM Salesforce Service Cloud expérimentés . Vous intégrerez une équipe Agile structurée (Scrum Master, PPO, Architecte CRM, UX/UI, Lead Dev). Le CRM est au cœur d’un écosystème applicatif interconnecté : plateformes web, applications agents, services omnicanaux, outils marketing et reporting. 🎯 Missions : Développement des User Stories en environnement Agile (JIRA) Conception technique et fonctionnelle Développements Salesforce (Service Cloud) Tests unitaires Code Review Déploiements (Merge Request) Documentation Confluence Participation aux cérémonies Agile Intégration des WebApps avec Salesforce Mise en œuvre d’API et interconnexions SI MEP en heures ouvrées ou non ouvrées selon contexte 🛠 Compétences indispensables : Salesforce Service Cloud (2 ans minimum) Certification Salesforce Developer APEX, Visualforce, SOQL, LWC, Aura Développement API / Web services Connaissance RGPD Expérience Agile (2 ans minimum) JIRA / Confluence ➕ Compétences appréciées : NodeJS / Express / SQL ReactJS / VueJS PWA Heroku Marketing Cloud Power BI Azure / AWS Outils de satisfaction client
Freelance

Mission freelance
[SCH] Consultant DevOps Azure / Appétence FinOps - 1222

ISUPPLIER
Publiée le

10 mois
350-380 €
La Garenne-Colombes, Île-de-France
Dans le cadre d’un projet stratégique international, notre client lance la création d’un nouveau Centre de Services (CDS) au Mexique, avec un périmètre couvrant la région LATAM. La mission s’inscrit dans la réalisation d’un Business Case (BCase) et nécessite un Consultant DevOps Azure capable d’adresser à la fois les enjeux techniques, financiers (FinOps) et organisationnels, dans un contexte multiculturel et international. Missions principales : Contribuer à la réalisation du Business Case (BCase) pour le périmètre LATAM Participer à la création et au cadrage du CDS au Mexique Concevoir, déployer et exploiter des solutions sur Microsoft Azure Intervenir sur les sujets DevOps, Cloud et gouvernance Apporter une appétence FinOps (optimisation des coûts, pilotage, recommandations) S’interfacer avec des interlocuteurs variés : Équipes techniques Équipes business Management de haut niveau (CISO, DAF, directions) Participer aux échanges internationaux en français, anglais et espagnol Contribuer à l’amélioration continue des pratiques Cloud & DevOps Profil attendu : Consultant DevOps Azure confirmé Forte capacité de communication et excellente posture client À l’aise dans des environnements internationaux et multiculturels Capacité à dialoguer avec des profils techniques, business et exécutifs Sensibilité forte aux enjeux FinOps Autonomie, maturité et crédibilité professionnelle
CDI

Offre d'emploi
Scrum Master DevOps (H/F)

SMARTPOINT
Publiée le
Ansible
AWS Cloud
Docker

12 mois
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans un environnement agile et fortement orienté DevOps, le Scrum Master DevOps accompagne une ou plusieurs équipes techniques dans l’adoption et l’amélioration continue des pratiques Agile (Scrum) et DevOps , afin d’optimiser la livraison de valeur, la qualité et la performance opérationnelle. Missions principales Animer les cérémonies Agile : Sprint planning, daily, review, rétrospective Accompagner l’équipe dans l’application du cadre Scrum et des pratiques DevOps Lever les obstacles (impediments) impactant la performance de l’équipe Favoriser la collaboration entre Développement, Ops, QA et Sécurité Accompagner la mise en place et l’amélioration des pipelines CI/CD Promouvoir l’automatisation, l’industrialisation et la culture DevOps Suivre et améliorer les indicateurs de performance (vélocité, lead time, incidents, disponibilité) Travailler en étroite collaboration avec le Product Owner et les équipes techniques
Freelance

Mission freelance
Chef de Projet Data / Flux (F/H)

CELAD
Publiée le

1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
Freelance

Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)

VISIAN
Publiée le
Administration linux
Bash
Cloudera

1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
5654 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous