Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 289 résultats.
CDI

Offre d'emploi
Responsable Produit IT Middleware (Middleware IT Product Lead)

REACTIS
Publiée le
Axway
Échange de données informatisé (EDI)

Marseille, Provence-Alpes-Côte d'Azur

Contexte du poste Nous recherchons un Responsable Produit IT Middleware pour piloter l’ensemble des activités d’intégration B2B avec les partenaires externes au sein du Centre d’Excellence IT (CoE) . Le poste consiste à définir les standards d’architecture middleware , gérer les plateformes d’intégration existantes, et encadrer les équipes de développement locales et offshore afin d’assurer la bonne mise en œuvre des solutions B2B. Le/la candidat(e) sélectionné(e) aura également la responsabilité de superviser les plateformes middleware existantes telles qu’ ECS OpenText , tout en conduisant les nouveaux projets d’intégration basés sur la plateforme Axway PaaS (Axway B2Bi et Axway Sentinel). Ce rôle requiert un équilibre entre expertise technique pointue dans les solutions d’intégration middleware et compétences managériales et collaboratives pour piloter des équipes internationales et transverses. Responsabilités principales 1. Leadership et Architecture Middleware Définir et appliquer les standards d’architecture middleware pour les projets d’intégration B2B. Piloter la mise en œuvre des solutions Axway PaaS (Axway B2Bi, Sentinel) pour garantir des architectures robustes et évolutives. Évaluer et optimiser les protocoles d’intégration ( AS2, EDI, XML , etc.) afin de répondre aux besoins métiers. 2. Gestion des Plateformes Middleware Superviser les plateformes middleware existantes, notamment ECS OpenText , en veillant à leur performance, leur fiabilité et leur scalabilité. Réaliser des audits systèmes et des revues de performance pour identifier les axes d’amélioration. Gérer les mises à jour, correctifs et évolutions d’infrastructure pour accompagner la croissance de l’entreprise. 3. Management d’Équipe et Collaboration Encadrer l’équipe middleware locale basée à Marseille ainsi que l’équipe offshore basée en Inde. Garantir une communication fluide et une coordination efficace entre les équipes globales. Apporter un soutien technique , du mentorat et des formations pour développer les compétences internes. 4. Gestion de Projets Piloter les projets d’intégration B2B de bout en bout : recueil du besoin, conception, développement, tests, déploiement et support post-production. Coordonner les activités entre équipes techniques, analystes B2B et métiers pour assurer l’adéquation entre la solution technique et les objectifs business. S’assurer du respect des exigences de sécurité , de performance et des SLA . 5. Innovation et Veille Technologique Assurer une veille active sur les nouvelles technologies et tendances du marché dans le domaine du middleware et des intégrations B2B. Proposer et mettre en œuvre des solutions innovantes pour renforcer la performance et la fiabilité des échanges intersystèmes.

Freelance
CDI
CDD

Offre d'emploi
Data Analyst confirmé

SARIEL
Publiée le
Databricks
Microsoft Power BI
Python

12 mois
40k-68k €
360-480 €
Bondoufle, Île-de-France

Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst – confirmé (4 - 10 ans d’expérience) Objectif : Accompagner l’entité Juridique du Groupe sur les sujets énergies Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques PYTHON - Confirmé - Impératif POWERBI - Confirmé - Important DATABRICKS - Confirmé - Important SQL - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Notions (Secondaire) Définition du profil CONCEPTION ET CADRAGE Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes Données complémentaires Date de démarrage 08/12/2025 Lieu de réalisation Bondoufle Déplacement à prévoir non Le projet nécessite des astreintes non Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?

Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Apache Spark
Azure
Databricks

14 mois
500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Nous sommes un leader mondial dans la fabrication de matériaux composites et de solutions innovantes . Depuis plus d’un siècle, nous repoussons les limites de la science des matériaux pour contribuer au progrès humain et à un monde plus durable . Grâce à notre expertise technologique dans les composites polymères , nous innovons continuellement pour produire des solutions de haute qualité destinées à des applications critiques dans des secteurs exigeants tels que la mobilité, la construction, l’aéronautique, les énergies bas carbone ou la santé . L’attention que nous portons à nos produits et notre connaissance fine des usages de nos clients nous permet d’offrir des expériences exceptionnelles , qu’il s’agisse de solutions connectées et intelligentes pour des flottes professionnelles , ou de services uniques pour nos consommateurs finaux .

Freelance

Mission freelance
Data Analyst Tableau

BEEZEN
Publiée le
Tableau software

12 mois
400-550 €
Rueil-Malmaison, Île-de-France

Je recherche un Data Analyst Tableau ayant des connaissances UX et plus de 10 ans d' experience Vous serez au cœur de la démarche de pilotage par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité de plusieurs métiers. Mettre en place une solution d’automatisation de la production d’un reporting Automatiser la production du lineage d’un applicatif Organiser des comités de pilotage Construire un dashboard de pilotage afin de mesurer la distance entre un point de vente et nos conducteurs Améliorer un reporting existant en y ajoutant un indicateur calculé à partir de plusieurs sources de données Rédiger des spécifications Reporting et extractions Extractions de données, y compris pour la construction des budgets Construire des indicateurs Créer et maintenir des dashboards TABLEAU Suivre les KPI

Freelance

Mission freelance
Lead Data Engineer Streaming

STHREE SAS pour HUXLEY
Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
Paris, France

Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

Freelance
CDI

Offre d'emploi
Ingénieur(e) Production Data

UCASE CONSULTING
Publiée le
Agile Scrum
AWS Cloud
GitLab CI

1 an
40k-82k €
500-960 €
Île-de-France, France

Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).

CDI

Offre d'emploi
Data Analyst (H/F)

Harry Hope
Publiée le

35k-40k €
Novillars, Bourgogne-Franche-Comté

Rattaché à la Direction Générale, vous jouerez un rôle clé dans le suivi, l'analyse et la fiabilisation des indicateurs de performance. A ce titre, vous assurez la réception et le traitement des données de vente transmises par les clients et les différents services internes, et vous contrôlez, mettez à jour et suivez les tableaux de bord Excel (vérification des écarts, identification et analyse des différences entre les relevés de chaque service) En outre, vous analysez les données selon les besoins de la direction : suivi des indicateurs clés, création de reportings pertinents et clairs. Vous aurez à traiter un gros volume d'Excel (manipulations avancées, formules, croisements de fichiers, mise en forme professionnelle). Enfin, vous serez amené à devenir référent BI pour accompagner et assister les différents utilisateurs internes et vous participerez à la mise en place de process de fiabilisation des données et d'amélioration continue du reporting.

CDI
Freelance

Offre d'emploi
Data Engineer H/F

HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

12 mois
40k-45k €
300-350 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

HN Services recrute un.e Data Engineer pour intervenir sur un projet de performance et de transformation Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Performance et Run, vous interviendrez pour garantir la réalisation des objectifs métiers et assurer la gestion des opérations quotidiennes (incidents, évolutions), tout en accompagnant la transformation du produit Data. Intégré.e à une squad dédiée à la performance et au fonctionnement continu, vous serez en lien étroit avec les équipes métiers. Vous serez encadré.e par un référent de la squad pour assurer une coordination optimale des missions. Vos missions principales incluront : La gestion des incidents et des évolutions sur les systèmes existants. Le développement de composants spécifiques dans le cadre de projets de construction. La contribution à la stabilité et à l’efficacité des solutions Data mises en œuvre. Environnement technique : Cloud : Google Cloud Platform (GCP) Data : BigQuery, Composer, SSIS Développement : Python, Linux Visualisation : Power BI

Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France

Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés

Freelance
CDI

Offre d'emploi
DATA SCIENTIST F/H | NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
Data science
Machine Learning
Python

3 ans
10k-43k €
100-320 €
Nantes, Pays de la Loire

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client au sein d'une équipe de spécialistes et interviendrez sur des sujets variés (risques, fraudes, commerce, etc.). Dans le cadre de votre mission, vous serez en charge de : Analyser les données Créer et utiliser des modèles mathématiques et de Machine Learning Environnement Technique : Python, R, ML Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

CDI
Freelance

Offre d'emploi
Architecte Solutions Data

1G-LINK CONSULTING
Publiée le
Big Data
CI/CD
SAS

2 ans
Île-de-France, France

1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue

CDI
Freelance

Offre d'emploi
Data Product Owner

SONASO INFORMATIQE
Publiée le
Data science
Dataiku
MLOps

2 ans
40k-52k €
400-450 €
Niort, Nouvelle-Aquitaine

📢 [CDI] Product Owner Data – RPA / MLOps / Data Science 🎯 Votre mission sera de faire le lien critique entre les besoins des experts fonctionnels (gestionnaires de contrats, actuaires, équipes commerciales....) et la réalité technique des squads de développement. Vous contribuerez au déploiement des offres de services de cette équipe nouvellement créée, ainsi qu'à la contribution du modèle opérationnel. Vous serez responsable de la définition, de la priorisation et de la livraison d'un portefeuille de produits data qui auront un impact direct et mesurable sur la performance de l'entreprise et la satisfaction de nos assurés. 📍 Niort – 3j sur site / 2j TT 🧠 +7 ans d'expérience 🔧 Stack : RPA, MLOps, Data Science, Dataku 💼 Contexte agile / data / automatisation

Freelance
CDI

Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)

OPTIPARK
Publiée le
Cloud
Data science
Dataiku

1 an
Niort, Nouvelle-Aquitaine

Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle

Freelance

Mission freelance
PMO i4.0

EBMC
Publiée le
Big Data
ERP
JIRA

6 mois
100-400 €
Élancourt, Île-de-France

Dans le cadre de ses initiatives Industrie 4.0 , le centre de compétences industriel d’un grand groupe du secteur de la défense et de l’aéronautique cherche à renforcer son équipe maîtrise d’ouvrage avec un PMO expérimenté . Ce renfort vise à accompagner la transformation digitale de l’environnement industriel à travers plusieurs chantiers stratégiques autour de l’ IoT, du MES, de l’intelligence artificielle, de la RPA et des réseaux industriels (RIN) . Le consultant interviendra en appui direct du pilotage des projets, contribuant à la planification, au reporting, au suivi de l’avancement et à la coordination des équipes techniques et métiers. Il jouera également un rôle clé dans la mise en place des bonnes pratiques de gouvernance projet et l’amélioration continue des processus de gestion de la performance industrielle

CDI
Freelance

Offre d'emploi
Expert Data Factory

CITECH
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
60k-70k €
400-550 €
Paris, France

🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.

Freelance

Mission freelance
Consultant Data / Prism Q1-2026

Signe +
Publiée le
Blue Prism

6 mois
400-610 €
Vélizy-Villacoublay, Île-de-France

Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026

1289 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous