Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 780 résultats.
Freelance

Mission freelance
Consultant Data Quality

NOVAMINDS
Publiée le
Data quality

3 mois
400-440 €
Paris, France
Objectif de la mission La mission du Data Office s’est fortement enrichie avec la promotion de l’utilisation de la Data par l’ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de la banque de détail et du Groupe. L’objectif est de développer l’activité commerciale, de diminuer les coûts, d’améliorer l’efficacité opérationnelle et de répondre à la dimension règlementaire. La mission se déroulera au sein de l’équipe Data Office Data Quality de la banque de détail. Prestations demandées L’activité de cette équipe porte sur le développement, l’amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l’écosystème banque de détail et sur l’accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion, etc.). Le profil a une connaissance théorique des expertises demandées par sa formation et a pu les mettre en pratique sur une ou deux missions. Le profil est régulièrement formé ou informé par ses pairs ou par le biais de formations sur l’expertise demandée.
Freelance

Mission freelance
Data Science Sénior - Expert Search Ecommerce (550€ MAX)

BEEZEN
Publiée le
Data science

6 mois
400-550 €
Île-de-France, France
vous rejoignez une team dédiée à l'un des piliers stratégiques :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). Expertise Elasticsearch : Optimiser les confi gurations, les analyseurs et les requêtes complexes
Freelance
CDI

Offre d'emploi
Développeur fullstack Java Vue

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - Java 11+, SpringBoot, VueJS, Javascript, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Freelance

Mission freelance
Architecte Technique Senior - VMWARE VCF, AWS

CAT-AMANIA
Publiée le
AWS Cloud
VMware

3 mois
400-550 €
Île-de-France, France
Mission : Architecte Technique Senior - VMWARE VCF, AWS Nous recherchons un Architecte Technique confirmé pour renforcer nos équipes d’Architecture Technique. Dans un environnement technologique riche, vous interviendrez sur des projets multidisciplinaires mêlant applicatif, infrastructures IT4IT et activités de RUN Architecture. 📅 Détails de la mission Date de début : 30/03/2026 Durée : Jusqu’au 30/06/2026 (Renouvellement possible) Charge : 100% (Temps plein) Lieu : Hybride (2 jours de télétravail par semaine) Déplacements : Occasionnels Astreintes : Oui 🎯 Vos Objectifs En tant que Référent Architecture Technique (RAARCH) ou contributeur expert, vos responsabilités seront les suivantes : 1. Analyse, Design & Expertise Décliner l’architecture technique et l’infrastructure des solutions (Cloud AWS / On-Prem). Garantir la conformité des solutions vis-à-vis du cadre technologique et des standards de l'entreprise. Proposer des architectures robustes et résilientes (DRP/BCP, haute disponibilité). Réaliser des études d’opportunité, des POC ou des POV pour valider les choix technologiques. 2. Gouvernance & Documentation Produire les livrables d’architecture (HLD, LLD, cadres de référence). Présenter et défendre les dossiers en comités d’architecture. Assurer la veille technologique et l'amélioration continue des référentiels. 3. Support au RUN & Industrialisation Apporter une expertise de niveau 3 sur les incidents critiques. Identifier les axes d'industrialisation ou de fiabilisation (Gestion des problèmes). Contribuer à la roadmap d’évolution des socles d’infrastructure. 🛠 Compétences recherchées Expertises Techniques (Impératives) : Cloud & Virtualisation : Maîtrise de VMware VCF , des environnements hybrides et d' AWS . Infrastructures : Solides connaissances en OS, Stockage, Réseaux et Sécurité. Modernisation : Conteneurs, Orchestration, API Management et Sécurité by Design . Automatisation : Expérience en Infrastructure as Code (IaC) et pipelines CI/CD . Méthodologie & Soft Skills : Connaissance des frameworks d’architecture (ex: TOGAF ). Capacité à vulgariser des sujets complexes pour des décideurs ou des opérationnels. Esprit critique, capacité à challenger le besoin et rigueur documentaire. 📄 Livrables attendus Mise à jour du référentiel d’architecture d'entreprise (normes, standards, cartographie). Dossiers d'architecture technique (DAT) complets et validés. Schémas directeurs et préconisations d'amélioration des processus.
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre premium
Freelance

Mission freelance
Chef de projet Flux/Data

Come Together
Publiée le
Gestion de projet

1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Freelance

Mission freelance
EXPERT CYBERSECURITE

SKILL EXPERT
Publiée le
CI/CD
Cloud
Gitlab

1 an
500 €
Guyancourt, Île-de-France
Description Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Compétences obligatoires Outils de protection des applications cloud natives (EXPERT) AWS (EXPERT) GCP (EXPERT)
Freelance

Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour

BI SOLUTIONS
Publiée le
API Platform
AWS Cloud

2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Freelance
CDI

Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage

Inventiv IT
Publiée le
Big Data
Data governance
Développement

6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
Freelance

Mission freelance
Ingénieur Cloud Data plateforme

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake

12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
CDI

Offre d'emploi
développeur .net azure (saalrié)

KOUKA
Publiée le
.NET
AWS Cloud
Azure

40k-58k €
Île-de-France, France
Concevoir, développer et maintenir des applications .NET distribuées et asynchrones , basées sur des architectures événementielles dans des environnements cloud Microsoft Azure et AWS .NET (.NET Core / .NET 6+) ☁️ Cloud & Messaging Azure : Service Bus Azure Functions Storage Accounts AWS : Lambda SQS / SNS EventBridge 🔄 Asynchrone & Architecture Programmation asynchrone (async/await, Task, multithreading) Architecture événementielle (event-driven) Microservices CQRS / Event Sourcing (un plus) Minimum 5 ans d'expérience Poste en CDI
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
Freelance
CDI

Offre d'emploi
Intégrateur applicatif / DevOps

LEVUP
Publiée le
Ansible
Apache
AWS Cloud

12 mois
Annecy, Auvergne-Rhône-Alpes
Dans le respect des règlementations et des procédures, avec le souci de la qualité et de la rigueur, la mission consistera à déployer, configurer et valider les applications et les infrastructures liées à la plateforme. Gestion des montées de versions ; Gestion des environnements ; RUN applicatif ; Garantir la haute disponibilité et la résilience de la plateforme ; Gestion des environnements cloud ; Garantir l'intégration applicative ; Gestion des certificats, clé, instances web ; Assurer les astreintes et le déploiement applicatif ; Supervision et monitoring ;
Freelance
CDI

Offre d'emploi
Architectes / Ingénieurs

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Cloud

12 mois
10k €
100 €
Île-de-France, France
Dans le cadre de plusieurs projets stratégiques chez nos clients grands comptes, nous recherchons des experts Cloud pour intervenir sur des environnements à forte criticité. 🔎 Profils recherchés : Architectes / Ingénieurs AWS Architectes / Ingénieurs Azure Experts Cloud & plateformes hybrides Spécialistes GCP / GSP 💡 Environnement technique : Cloud public et hybride, architectures distribuées, automatisation (IaC), sécurité, haute disponibilité, migration vers le cloud et optimisation des infrastructures. 🎯 Vos missions possibles : Conception et évolution d’architectures Cloud scalables et sécurisées Migration et modernisation d’infrastructures vers AWS, Azure ou GCP Mise en place de bonnes pratiques DevOps / FinOps / Cloud Security Optimisation des performances et des coûts Accompagnement des équipes techniques sur les standards Cloud 👤 Profil : Expérience solide sur AWS, Azure ou GCP Bonne maîtrise des architectures Cloud et de l’automatisation Capacité à intervenir sur des environnements complexes et critiques
2780 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous