Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 482 résultats.
Freelance
CDI

Offre d'emploi
Software Engineer GCP (H/F)

WINSIDE Technology
Publiée le
Automatisation
Azure
Google Cloud Platform (GCP)

6 mois
45k-48k €
400-450 €
Lille, Hauts-de-France
Informations pratiques Démarrage : 04/05/2026 Fin de mission : 30/10/2026 Présentiel : 2 jours par semaine Astreintes : oui Contexte du projet Dans le cadre d’un programme stratégique de transformation cloud pour un grand groupe international , nous recherchons un(e) DevOps – niveau expert pour intervenir sur une plateforme interne de type Landing Zone . Cette plateforme permet aux équipes internes de provisionner en toute autonomie des environnements cloud sécurisés (principalement GCP , mais aussi Azure ) afin d’y déployer leurs applications rapidement, tout en respectant les standards du groupe. Objectifs de la mission Vous contribuerez au développement et à l’évolution des produits cloud et des outils d’automatisation des infrastructures réseau et sécurité, avec pour objectifs : la mise à disposition de plateformes cloud self-service l’automatisation complète des déploiements d’infrastructures le renforcement de la sécurité et de la fiabilité des environnements cloud Vos missions 🔧 Développement Concevoir et développer des composants logiciels backend et frontend Implémenter des APIs et services backend en Python Développer des interfaces frontend (Vue.js) Concevoir et maintenir des solutions Infrastructure as Code (Terraform) Participer au développement et à l’évolution des Landing Zones cloud Développer des outils d’automatisation réseau (firewall, opérations réseau) 🧱 Architecture & Conception Répondre aux besoins métiers via des solutions cloud natives Concevoir des architectures cloud sécurisées, automatisées et scalables Participer aux revues d’architecture et de code Définir et faire évoluer les standards techniques et bonnes pratiques ✅ Qualité & Tests Développer et maintenir des tests unitaires et automatisés Garantir la qualité, la performance et la maintenabilité du code Identifier et corriger les anomalies et régressions 🔄 Maintenance & Support Assurer la maintenance corrective et évolutive des solutions existantes Accompagner les équipes techniques dans l’utilisation des plateformes Participer aux astreintes liées au projet
Freelance

Mission freelance
DevOps / ETL Data Engineee - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site / semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Votre mission Au sein d'une équipe Agile, vous intervenez sur des projets data à forts enjeux. Votre rôle consiste à concevoir, développer et maintenir des chaînes de traitement de données fiables, performantes et sécurisées. Vous participez à l'ensemble du cycle de vie : analyse fonctionnelle et technique, développement ETL, tests et contrôles qualité, livraison et support aux équipes de production. 🛠️ Vos responsabilités Développer et paramétrer des traitements ETL Rédiger des scripts SQL et Shell Produire les livrables : code, documentation, jeux de tests Participer aux cérémonies Agile (backlog, grooming, démos) Collaborer avec les équipes IT et métiers Garantir la qualité, la performance et la conformité des solutions Contribuer à l'amélioration continue de l'équipe ✅ Profil recherché Expérience confirmée en ETL (Datastage ou équivalent) Bonne maîtrise du SQL Connaissances en Shell scripting À l'aise dans un environnement Agile Rigueur, sens des responsabilités, esprit d'équipe Anglais professionnel requis ⭐ Pourquoi rejoindre cette mission ? Environnement international et structuré Projets data critiques à forte valeur Équipe Agile mature Bon équilibre présentiel / télétravail
Freelance

Mission freelance
BI Engineer

STHREE SAS
Publiée le

36 mois
Toulouse, Occitanie
Dans le cadre du développement et de la modernisation de ses capacités analytiques, mon client souhaite renforcer son expertise BI. La mission vise à mettre en place et structurer Power BI Service , développer des dashboards stratégiques, optimiser les modèles de données et intégrer les premières briques d'IA (Copilot, agents IA) au sein des usages Power BI. Rôle et responsabilité Le/la BI Engineer sera responsable de la configuration complète de l'environnement Power BI Service, de la création des dashboards métiers et de l'intégration des fonctionnalités avancées (DAX, modélisation, Copilot/IA). Il/elle accompagnera également la montée en maturité des équipes internes via la documentation et le transfert de compétences. Localisation : Toulouse /L'union Conditions de télétravail Pas de télétravail les 3 premiers mois de la mission Ensuite : 3 jours de présence sur site obligatoires par semaine MISSIONS Installer et configurer Power BI Service (tenant, workspaces, sécurité, accès). Connecter Power BI aux différentes sources de données internes (BigQuery, API…). Concevoir, modéliser et développer des dashboards Power BI performants et ergonomiques. Optimiser les modèles de données : Power Query , DAX , architecture et performance. Documenter les réalisations et accompagner les équipes utilisatrices. Créer ou intégrer des agents IA et mettre en place les fonctionnalités Copilot dans Power BI . COMPÉTENCES REQUISES Techniques : Maîtrise de Power BI Service, Power Query, DAX Excellente compréhension de la modélisation BI (star schema, performance) Connaissance de l'environnement Azure Bonne pratique des connexions BigQuery / bases SQL / API Personnelles : Autonomie et sens du delivery Capacité à vulgariser et travailler avec des interlocuteurs non techniques Rigueur, clarté et communication structurée QUALIFICATIONS ET EXPÉRIENCES Formation : Diplôme d'ingénieur ou équivalent Bac+5 en informatique / data / BI Expérience professionnelle : Minimum 5 ans d'expérience en tant que BI Engineer ou Data Analyst senior Expérience significative et démontrable dans la mise en place de Power BI Service Pratique confirmée des environnements cloud (Azure recommandé)
CDI
Freelance
CDD

Offre d'emploi
Domain Lead Engineer - Expert Technique

Avanda
Publiée le
Angular
Apache Kafka
Full stack

12 mois
Lyon, Auvergne-Rhône-Alpes
Notre client est un grand acteur du secteur de l'énergie en France, engagé dans une transformation technologique ambitieuse. Dans ce cadre, il recherche un Domain Lead Engineer pour piloter la stratégie technique d'un département à grande échelle (~50 personnes). Véritable bras droit du CTO, le DLE est le garant de la cohérence architecturale, de la vision technique long terme et du lien entre stratégie globale et réalité terrain. Le poste est localise à Lyon, ouvert aux freelances. Démarrage janv. 27 En tant que Domain Lead Engineer, vos missions sont les suivantes : Décliner les orientations techniques du CTO à l'échelle du département Définir et maintenir la vision technique court, moyen et long terme Construire et piloter les roadmaps techniques structurantes Identifier en amont les risques techniques et zones de transformation Garantir la cohérence globale des architectures du département Définir et diffuser les standards, cadres et bonnes pratiques d'ingénierie Participer aux revues d'architecture et de code sur les sujets critiques Assurer l'adoption des standards via les Apps Leads et Lead Techs Être le point d'escalade technique pour les équipes sur les sujets complexes et multi-périmètres Remonter au CTO les difficultés techniques, organisationnelles et process Identifier des opportunités d'innovation à fort impact et favoriser l'expérimentation Diffuser la connaissance et les retours d'expérience au sein du département
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
CDI
Freelance

Offre d'emploi
Data Engineer IA (H/F)

STORM GROUP
Publiée le
IA
Large Language Model (LLM)

3 ans
48k-58k €
450-550 €
Île-de-France, France
La mission principale du profil retenu sera • Concevoir et développer des solutions de traitement de données complexes • Implémenter solutions exploitant des modèles d'IA générative • Participer à la mise en place de prompts et de RAG • Collaborer étroitement avec les métiers et les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. • Démontrer une expérience avérée dans le traitement de données non structurées ainsi que la maitrise de traitement de fichiers de différents types tels que Word, PDF, PowerPoint, CSV
CDI
Freelance

Offre d'emploi
Data Engineer Python

Signe +
Publiée le
Python

24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
CDI

Offre d'emploi
Lead data engineer H/F

HAYS France
Publiée le

45k-50k €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer de nouveaux pipelines et transformations de données à partir de spécifications fonctionnelles Créer, maintenir et faire évoluer des rapports et tableaux de bord Power BI Optimiser les performances des traitements et des modèles de données Analyser et corriger les incidents techniques sur les flux de données et les tableaux de bord Garantir des délais de résolution adaptés, notamment pour les incidents bloquants liés aux données clients Assurer le suivi des tickets de bugs et produire un reporting clair à destination du management Animer les revues de code hebdomadaires pour l'ensemble de l'équipe data Accompagner techniquement et méthodologiquement les développeurs plus juniors Être force de proposition et interlocuteur technique de référence pour l'équipe Reprendre temporairement le périmètre d'un autre développeur en cas d'incident, d'urgence ou d'évolution critique Garantir la continuité opérationnelle du RUN data
Freelance

Mission freelance
DevOps / ETL Data Engineer - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Freelance

Mission freelance
ML Platform Senior DevOps Engineer

ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker

6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance

Mission freelance
(Senior) Azure DevOps Engineer

Codezys
Publiée le
Angular
Azure
Azure DevOps Services

6 mois
Courbevoie, Île-de-France
Contexte de la mission Dans le cadre de notre initiative au sein de NEXT, le laboratoire interne de startups de Saint-Gobain, nous recherchons un Azure DevOps Engineer pour accompagner le développement d’un projet innovant en phase de démarrage (1 an). Ce projet consiste en la création d’une marketplace digitale spécialisée dans les solutions d’étanchéité haute performance, ciblant des secteurs réglementés tels que l’aérospatial, l’espace et le nucléaire. La plateforme est conçue pour le marché américain, hébergée sur Azure Government, afin de garantir la gestion de données sensibles et le respect des réglementations relatives aux exportations. Le contexte actuel requiert la constitution d’une équipe restreinte d’environ 6 personnes, basée à Boston mais entièrement en télétravail. La mission se concentre sur une phase critique de build, d’une durée de 6 à 10 semaines, durant laquelle une contribution précoce aux décisions techniques et à la conception sera essentielle. Objectifs et livrables Rôle pratique et fondamental : participation active à la mise en place et à la gestion de l’infrastructure et des processus de déploiement. Automation : mise en place de pipelines CI/CD (GitLab/GitHub auto-hébergés sur des VM Azure). Gestion de l’infrastructure : administration via Terraform pour assurer la scalabilité, la sécurité et la conformité. Déploiement et exploitation : gestion du déploiement de l’application (Angular + Django + PostgreSQL) dans un environnement fortement sécurisé avec Azure Gov, répondant aux exigences de conformité, de gouvernance et de sécurité. Collaboration : cooperation étroite avec un fournisseur externe responsable du tenant Azure Government, pour assurer la cohérence et la sécurité des opérations. Impact et visibilité : rôle à forte valeur ajoutée, avec une grande autonomie et visibilité dans un environnement de startup soutenu par une grande entreprise. Profil idéal Senior DevOps / ingénieur de construction capable de structurer, sécuriser et faire évoluer une plateforme dans un environnement contraint. Expérience significative dans la gestion d’infrastructures Azure, notamment Azure Government. Capacité à prendre en main la mise en place de pipelines CI/CD, la gestion d’infrastructure automatisée, et le déploiement sécurisé des applications. Excellentes compétences communicationnelles dans un contexte collaboratif distant. US Person : citoyen américain ou résident permanent, en raison de la nature sensible du projet et de la conformité réglementaire.
Freelance
CDI
CDD

Offre d'emploi
AI Engineer - Agentic Systems

LEVUP
Publiée le
Python

12 mois
Île-de-France, France
AI Engineer – Agentic Systems Description du poste Conception et développement de systèmes d’agents IA basés sur des LLM, capables de raisonner, planifier et interagir avec des outils externes dans des workflows multi-étapes. Responsabilités principales Concevoir et développer des systèmes agentiques basés sur des LLM pour des cas d’usage complexes Mettre en place des pipelines de Retrieval-Augmented Generation (RAG) pour l’accès à des données structurées et non structurées Implémenter des stratégies de raisonnement avancées (ReAct, multi-step reasoning) Développer des mécanismes de tool calling et d’intégration d’APIs externes Gérer la mémoire des agents (court terme / long terme) pour améliorer la cohérence et la performance Optimiser les performances via des techniques de prompt engineering et d’optimisation itérative (DSPy, reflective prompting) Orchestrer des workflows multi-agents avec des logiques de planification et d’exécution Collaborer avec les équipes produit et techniques pour intégrer les agents dans des systèmes existants Stack technique Frameworks : LangChain, LangGraph, DSPy Concepts : RAG, ReAct, agent orchestration, prompt engineering, reflective optimization Modèles : APIs LLM (type OpenAI API ou équivalent) Langages : Python (principal), JavaScript/TypeScript (optionnel) Profil recherché Expérience en développement d’applications basées sur des LLM Bonne compréhension des architectures d’agents IA et des systèmes distribués Capacité à concevoir des workflows complexes et autonomes Maîtrise du prompt engineering et des techniques d’optimisation Esprit analytique et orienté résolution de problèmes
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Freelance

Mission freelance
Senior Operations Support Engineer

Orcan Intelligence
Publiée le
CI/CD
ITIL
Linux

12 mois
600-800 €
Grand Est, France
Orcan Intelligence recherche pour l’un de ses clients un Senior Operations Support Engineer. Gérer les incidents de forte criticité et complexes sur des systèmes interconnectés, en garantissant leur résolution rapide et une communication fluide avec les parties prenantes. Diriger les investigations techniques, analyses de causes racines et revues post‑incident, en veillant à la mise en œuvre des actions correctives et préventives. Définir et affiner les stratégies de supervision et de monitoring, établir les seuils de performance et optimiser l’observabilité pour une détection proactive des anomalies. Coordonner les initiatives de maintenance préventive et d’optimisation des environnements, tout en assurant la conformité avec les standards opérationnels et de sécurité de l’autorité contractante. Valider les plans de déploiement, procédures de rollback et stratégies de test en collaboration avec les équipes DevSecOps et DBA. Préparer des rapports opérationnels, analyses de capacité et recommandations d’amélioration. Contribuer aux initiatives d’automatisation et d’efficacité au sein du périmètre d’exploitation.
Freelance
CDI

Offre d'emploi
Site Reliability Engineer

VISIAN
Publiée le
Dynatrace
Site Reliability Engineering (SRE)

1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation de Site Reliability Engineering (SRE) afin de participer à la sécurisation des activités RUN sur le périmètre Finance et Actuariat de la DSI d’un grand groupe d’assurance. Missions Au sein d'un équipage applicatif en charge des domaines Finance et Actuariat, le SRE est un acteur clé dans le maintien en condition opérationnelle et la stabilité des environnements techniques (Production / hors Production). Les principales missions seront les suivantes : Maintien du coverage avec la DSI sur un périmètre applicatif RUN. Mise en place des indicateurs / SLA, SLO avec la DSI. Mise en place, suivi et analyse des métriques de performance et disponibilité de la Production (via Dynatrace). Être le référent Dynatrace pour l'équipage APS. Définition et mise en place via Ansible et scripting des actions d'automatisation sur le périmètre (arrêts relances, déploiement automatisé, sanity check, ...).
482 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous