Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 941 résultats.
CDI
Freelance

Offre d'emploi
Data Scientist Computer Vision

Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)

3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
CDI

Offre d'emploi
Fiche de poste — Ingénieur AppSec / DevSecOps (H/F)

CAT-AMANIA
Publiée le
Azure
DevSecOps
Google Cloud Platform (GCP)

Levallois-Perret, Île-de-France
Dans le cadre du renforcement de notre démarche Security by Design et de l’industrialisation de nos pratiques DevSecOps, nous recherchons un Ingénieur AppSec / DevSecOps capable d’intégrer la sécurité au cœur du cycle de développement logiciel. Vous interviendrez auprès d’équipes produits et projets pour : · réduire la surface d’attaque applicative · automatiser les contrôles de sécurité · accompagner les développeurs · garantir la conformité aux standards (OWASP, ANSSI, ISO 27001…)
Freelance

Mission freelance
INGENIEUR SYSTEMES ACTIVE DIRECTORY / AZURE AD

PROPULSE IT
Publiée le
Azure

24 mois
275-550 €
La Défense, Île-de-France
PROPULSE IT recherche un(e) consultant(e) Active Directory pour une mission chez un de nos clients. Sur cette mission l'accent est mis sur l'expertise Azure AD. MCO de la partie Active Directory : 80% - Participation à la résolution des incidents et demandes liés à la gestion des de Niveau 3 liés aux droits d'accès. - Participation à la MCO des outils d'administration des solutions d'Active Directory et Azure AD. Gestion des projets 20% o Participe activement aux projets o Planification en lien avec les chefs de projet Attendus comportementaux - Esprit d'équipe - partage de connaissances - Adaptabilité aux changements - Anglais professionnel courant y compris à l'oral (Animation / participation / communication fréquente avec les IT régionales). Equivalent Niveau B2 (Classification Européenne).
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
CDI
Freelance

Offre d'emploi
Chef de projet Migration Cloud GCP (H/F)

AGH CONSULTING
Publiée le
Google Cloud Platform (GCP)

1 an
50k-70k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur majeur des services numériques, accompagne des organisations sur l’exploitation de leurs systèmes d’information critiques et leur transformation numérique sécurisée . Dans ce cadre, il renforce ses équipes et recherche un Responsable projets Migration Cloud expérimenté pour piloter des programmes de Move to Cloud sur des environnements GCP, Azure et AWS . Missions principales Piloter des programmes de migration Cloud de bout en bout (de la phase d’appel d’offres jusqu’à la mise en production et l’acceptation) Définir et sécuriser les stratégies de migration dans des contextes multi-cloud et réglementés Coordonner l’ensemble des parties prenantes : Project Manager, Product Design Authority, équipes d’architecture, de sécurité, partenaires et sous-traitants Garantir le respect des coûts, délais, qualité et conformité des projets Assurer le pilotage global des risques, dépendances et plans d’actions Mettre en place une gouvernance projet structurée (revues, comités, reporting)
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP (H/F)

Le Groupe SYD
Publiée le
CI/CD
Git
IAM

24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
CDI

Offre d'emploi
DevOps AWS H/F

DAVRICOURT
Publiée le
DevOps

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Bordeaux

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance

Mission freelance
DevOps Cloud Senior Azure / AWS

Comet
Publiée le
AWS Cloud
Azure
Azure DevOps

6 mois
450-600 €
Paris, France
Vous interviendrez en tant que DevOps Cloud Senior au sein d’un pool DevOps Cloud d’un grand groupe international , dans un contexte de structuration et de standardisation des environnements Cloud . La mission consiste à concevoir, déployer et faire évoluer des environnements Azure et AWS from scratch , en respectant les standards de sécurité, d’automatisation et de fiabilité définis par le groupe. Vous interviendrez sur les fondations Cloud , en amont des projets applicatifs, avec un fort enjeu de pérennité et de reproductibilité . Vous serez impliqué dans la mise en place de l’Infrastructure as Code , la construction de pipelines CI/CD , le déploiement et l’exploitation de plateformes Kubernetes , ainsi que dans les sujets de monitoring, haute disponibilité et sécurité Cloud . Au-delà de l’exécution technique, vous contribuerez activement aux standards DevOps , à la capitalisation des bonnes pratiques et aux échanges au sein de la communauté Ops , dans un environnement structuré et collaboratif. Mission longue, à forte valeur ajoutée technique, orientée socle Cloud et bonnes pratiques DevOps .
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
CDI
Freelance

Offre d'emploi
Platform Reliability Engineer / SRE (DevOps) – IDF (78) – ASAP

ASAP TECHNOLOGIES
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 an
45k-50k €
500 €
Île-de-France, France
Nous recherchons un(e) Platform Reliability Engineer / SRE pour renforcer une équipe plateforme dans un environnement cloud-native, avec une approche orientée fiabilité, automatisation et observabilité . Contexte & objectifs Améliorer la résilience et la disponibilité des services Industrialiser et sécuriser les chaînes CI/CD Renforcer l’ observabilité et la gestion des incidents Mettre en place / faire vivre les pratiques SRE (SLI/SLO, runbooks, RCA, post-mortems) Missions principales Exploitation et optimisation de la plateforme Kubernetes (AKS) (stabilité, performance, sécurité, troubleshooting) Construction/optimisation des pipelines Azure DevOps (templates, quality gates, automatisation, release management) Implémentation/optimisation de l’observabilité via Datadog (APM, logs, metrics, dashboards, alerting, SLO) Contribution aux rituels RUN : gestion d’incidents , analyse cause racine, plan d’amélioration continue Collaboration étroite avec les équipes dev/produit (accompagnement déploiements, bonnes pratiques) Stack / technos clés Azure DevOps Kubernetes – AKS Datadog (monitoring/logging/APM/alerting/SLO) IaC/automation apprécié : Terraform , Helm, GitOps, scripting
Freelance
CDI

Offre d'emploi
Data engineer

SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Freelance

Mission freelance
Architecture Solution - Expert Cloud AWS

Codezys
Publiée le
Amazon S3
AWS CloudFormation

12 mois
Malakoff, Île-de-France
Accompagnement sur l’identification, la rédaction et l’adoption de patterns d’architecture : ce rôle vise à harmoniser les pratiques architecturales, améliorer la cohérence technique entre les différents projets, et assurer la conformité des solutions aux standards internes. Le périmètre couvre les environnements Cloud (notamment AWS) ainsi que les infrastructures on-premise. L’architecte pourra également être sollicité pour accompagner ponctuellement des projets clients, en apportant une expertise approfondie en architecture ou en participant à la mise en œuvre concrète des patterns définis. LOGISTIQUE : Localisation : Malakoff Date de début : 9 mars 2026 Date de fin prévue : 15 septembre 2026 (renouvelable) Niveau de séniorité : Expert Panel concerné : Transformation Type de prestation : Expertise – Intégration – Conseil Certifications requises : AWS Solutions Architect Objectifs et livrables : Environnement technique de la prestation : Cloud public (AWS) et solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps et CI/CD Environnement industriel Prestation attendue : Rédaction et évolution des patterns : Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, infrastructures on-premise, solutions hybrides, réseaux, sécurité, data…) Garantir la cohérence des patterns avec les standards de l’entreprise et les contraintes opérationnelles Collaborer avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des patterns Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Travailler en étroite collaboration avec les équipes d’infrastructure, réseau, sécurité et DevOps Support et accompagnement des projets : Fournir un soutien architectural lors de certains projets clients Aider à l’adoption des patterns définis Participer à des revues d’architecture (design reviews, comités d’architecture…) Conseiller les équipes projets pour garantir le respect des bonnes pratiques et des standards architecturaux
Freelance

Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt

HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java

3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
CDI
Freelance

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
4941 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous