Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 320 résultats.
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
CDI

Offre d'emploi
Ingénieur système et réseau - H/F

DAVRICOURT
Publiée le

35k-40k €
31000, Toulouse, Occitanie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) ingénieur système et réseau pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé à Toulouse (31). À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir et déployer des infrastructures systèmes et réseaux ; - Piloter des projets techniques : serveurs Radius/NPS, intégration de nouveaux équipements (type firewalls, loadbalancer, AP Wifi, commutateurs…) ; - Participer aux choix d'architecture avec les équipes Systèmes & Réseaux ; - Tester en laboratoire, industrialiser et accompagner les mises en production ; - Fournir une documentation technique claire et exploitable ; - Assurer le MCO et le support N3 ; - Garantir la disponibilité et la sécurité des infrastructures : routage, switching et firewalls (Fortinet, Palo Alto, F5, Cisco/Huawei/Juniper) ; - Intervenir sur les incidents N3 : authentification, réseaux dynamiques (BGP/OSPF), tunnels IPsec/SSL, cluster HA, load balancing ; - Contribuer à l'amélioration continue : montée de version, optimisation des performances, renforcement sécurité ; - Travailler étroitement avec les équipes d'exploitation pour maintenir un environnement maîtrisé, documenté et stable.
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
CDI
Freelance

Offre d'emploi
Consultant DATASPHERE

Craftman data
Publiée le
Microsoft Power BI
SAP
SAP BW

6 mois
Paris, France
Contexte & mission : Dans le cadre de ses projets data, Renault recherche un Consultant SAP Datasphere pour concevoir, intégrer et gouverner les données d’entreprise afin de fournir des données fiables et exploitables pour le pilotage métier. 🚀 Responsabilités principales Recueil des besoins métiers (finance, supply, production…) Définition des KPI et rédaction des spécifications Conception de l’architecture data (Data Fabric / Data Mesh / DWH) Modélisation et structuration des données dans Datasphere Mise en place des flux (Data Flows, Replication Flows) Construction du modèle sémantique (mesures, dimensions…) Gouvernance, sécurité et gestion des accès Support et accompagnement des utilisateurs (SAC, Power BI…) Optimisation des performances et maintenance 🛠️ Compétences requises SAP Datasphere (Spaces, Data Builder, Business Builder) Data Flows / Replication Flows SQL & modélisation dimensionnelle (Star Schema, Snowflake) Écosystème SAP : S/4HANA, BW/BW4HANA, BTP ETL / ELT & intégration multi-sources Outils BI : SAP Analytics Cloud, Power BI ou Tableau 👤 Profil Consultant Datasphere +4 ans d’expérience Bonne compréhension des processus métiers Capacité à traduire les besoins en modèles data Autonomie, rigueur et bon relationnel
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
CDI
Freelance

Offre d'emploi
Product Owner IA (H/F)

STORM GROUP
Publiée le
Confluence
IA
JIRA

3 ans
56k-60k €
500-550 €
Île-de-France, France
• Management de Produit & Agilité : Expérience confirmée en tant que Product Owner (ou poste équivalent) dans un contexte agile. Vous savez définir une vision produit, gérer un backlog, rédiger des user stories et animer une équipe agile multidisciplinaire. Une certification Product Owner ou Scrum Master serait un plus • Culture Data Science & IA : Solide culture des technologies Data et IA. Sans être Data Scientist vous-même, vous comprenez les concepts clés du Machine Learning (modèles prédictifs supervisés, scoring, etc.) ainsi que les approches d’IA Générative (LLMs, agents conversationnels…). Vous êtes capable d’échanger de manière fluide avec des Data Scientists sur des sujets comme la performance d’un modèle ou le fine-tuning d’un LLM. Vous vous tenez informé(e) des avancées du domaine (ex : nouvelles offres d’OpenAI/HuggingFace, frameworks comme LangChain) et percevez comment les appliquer concrètement à des cas d’usage métiers • Coordination Technique & MLOps : Bonne compréhension de l’écosystème Data Engineering/MLOps. Vous n’hésiterez pas à participer aux discussions techniques sur l’architecture des solutions IA. Idéalement, vous êtes familier avec le cycle de vie d’un modèle ML : du prototypage à la mise en production Cloud (Azure, conteneurisation Docker/Kubernetes, pipelines automatisés), en incluant le monitoring (data drift, performance, feedback utilisateurs). Vous savez ainsi challenger et soutenir techniquement l’équipe dans les choix de solution, et comprendre les contraintes d’échelle et de sécurité propres au secteur bancaire
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
CDI

Offre d'emploi
Business Analyst Data

Peppermint Company
Publiée le
Business Analyst
Data management
Développement

Sophia Antipolis, Provence-Alpes-Côte d'Azur
vous interviendrez dans une Business Unit transverse couvrant plusieurs domaines : ✈️ Airline – 🏨 Hospitality – 🚆 Rail La mission s’inscrit dans un programme stratégique autour de la Data Platform (création et structuration d’outils data à grande échelle). 🧩 Missions Recueil et analyse des besoins métiers Rédaction des spécifications fonctionnelles Interface entre équipes techniques et métiers Contribution à la construction de la plateforme data Participation aux ateliers et cadrage fonctionnel Accompagnement des équipes sur les sujets data
Freelance
CDI

Offre d'emploi
SRE Data et IA

VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)

1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
Freelance

Mission freelance
Consultant Azure Data Factory (H/F)

Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps

6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
CDI
CDD

Offre d'emploi
Expert IA Python – CDI (H/F)

TOP TECH
Publiée le
Agent IA
Python

1 an
30k-50k €
France
Démarrage : ASAP Contrat : CDI Expérience : +5 ans Dans le cadre du développement de projets innovants autour de l’intelligence artificielle, TopTech recherche un Expert IA Python pour intervenir sur des projets stratégiques au sein d’un environnement métier exigeant. Vous contribuerez à la conception et à la mise en œuvre de solutions d’intelligence artificielle avancées destinées à optimiser les processus métiers liés notamment à la gestion d’actifs, au trading, au risque et au reporting. Vos missions Participer à la conception et à la définition des solutions IA adaptées aux besoins métiers Développer et intégrer des solutions basées sur l’intelligence artificielle et l’IA générative Industrialiser les solutions afin de garantir performance, robustesse et maintenabilité Mettre en place les mécanismes de monitoring et d’évaluation des modèles Contribuer au déploiement et à l’automatisation des solutions Rédiger la documentation technique et les bonnes pratiques Environnement technique Python avancé pour le développement de solutions IA Intégration d’API et SDK IA (OpenAI / Azure OpenAI / Claude / Mistral ou équivalent) Architectures d’ agents IA et automatisation intelligente Outils DevOps : Git, , CI/CD Bases de données : SQL Server 📩 Intéressé(e) ? Envoyez votre CV à :
Freelance

Mission freelance
Développeur Java orienté Data H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL

6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
CDI
Freelance
CDD

Offre d'emploi
Technical Security Architect – Cyber Defense Migration

RIDCHA DATA
Publiée le
API
cyberark
Gestion des accès privilégiés (PAM)

1 an
Paris, France
Contexte de la mission Dans le cadre du projet CD OneDC , le consultant interviendra au sein des équipes Cyber Defense afin d’accompagner la migration des services de sécurité vers les nouveaux data centers virtualisés . La mission se déroulera en collaboration avec les équipes produits, architectes et le chef de projet , dans un environnement international. Missions Le consultant interviendra sur les activités suivantes : Architecture et migration Piloter l’architecture technique de sécurité pour les plans de migration des services Cyber Defense. Contribuer à la migration du portefeuille de produits Cyber Defense vers les nouveaux data centers virtualisés. Identifier les dépendances entre les produits et services de cybersécurité. Garantir que les plans de migration sont compatibles avec les environnements techniques AXA. Travailler avec les équipes transverses afin d’assurer une migration fluide sans compromettre la sécurité. Conception et documentation Définir plusieurs options d’architecture et analyser leurs avantages et inconvénients. Expliquer les impacts de la consolidation des services (techniques, organisationnels et financiers). Participer à la mise à jour ou création des Low Level Design post-migration . Identifier les opportunités d’amélioration et de standardisation des architectures et solutions. Pilotage et coordination Structurer et enrichir le backlog projet et délivrer les livrables associés. Participer à la gouvernance architecture et produit du projet. Organiser et animer des sessions de communication avec les parties prenantes et équipes d’expertise. Collaborer avec le chef de projet pour définir un plan de migration réaliste avec estimations. Validation et contrôle Définir les critères et plans de monitoring de disponibilité des services . Mettre en place un plan de test pour valider les services pendant les phases de migration. Environnement technique Le consultant devra être capable d’avoir des discussions techniques avancées sur les sujets suivants : Cyber Security & Architecture Concepts de sécurité de l’information Évaluation des risques Architecture de sécurité Technologies de Cyber Defense Identity & Access Security Privileged Access Management (PAM) CyberArk Thycotic Password Complexity Checkers Cryptography & Key Management Hardware Security Modules (HSM) nCipher Thales Utimaco SecurityServer YubiHSM Data Protection DLP Solutions Forcepoint Microsoft Teramind Endpoint Security Antivirus / EDR CrowdStrike SentinelOne Symantec Microsoft Defender for Endpoint Network Security IPS / Firewall / DDoS protection Secure Web Gateway Shadow Cloud monitoring Secure Email Gateway Web Application Firewall Technologies associées : Cisco Firepower Palo Alto Networks Fortinet SkyHigh Zscaler SOC & Monitoring Log collection & SIEM ArcSight Microsoft Sentinel AMA Beats Cribl Infrastructure Troubleshooting systèmes d’exploitation Troubleshooting réseau
Freelance
CDI

Offre d'emploi
Consultant Sécurité Applicative

VISIAN
Publiée le
Agent IA
Blockchain

1 an
Île-de-France, France
Contexte Au sein d’une grande institution financière internationale, la mission consiste à apporter une expertise sécurité applicative / architecture sécurité pour garantir un haut niveau de sécurité du parc applicatif. Principalement sur les sujets innovation pour les applications mettant en œuvre des solutions AI et/ou Block Chain. Missions En phase projet, intégration de bout en bout de la sécurité et coordination des différentes équipes sécurité. En phase d'exploitation, support ad ‘hoc pour les équipes applicatives. Challenge des fournisseurs sur la sécurité de leurs solutions. Identification des besoins et des mesures sécurité. Préconisation de solutions concrètes, soit en catalogue ou sur mesure. Analyse des risques relatifs à l’application et ses usages. Contrôle du respect des exigences sécurité avant la mise en production. Contribution à des chantiers transverses selon les besoins d’évolutions globales du SI et des exigences de sécurité : Design de solutions avec LLM pour les activités sécurité applicatives et infrastructure Évolution des process et frameworks d’analyse et expertise Support/analyses des différents tests de sécurité (Pentest, SAST, DAST...) Politique de sécurité
Freelance

Mission freelance
Expert Fortinet

ALLEGIS GROUP
Publiée le
F5
Fortinet
Réseaux

3 mois
160-650 €
Toulouse, Occitanie
Bonjour, je suis à la recherche d'un expert Fortinet, dont vous trouverez la fiche de poste ci-dessous: Fiche de Poste – Expert Fortinet (N3) – Infrastructures de Sécurité Datacenter Contexte du poste Dans le cadre d’un projet stratégique autour de la modernisation et de la sécurisation d’un Datacenter critique , l’Expert Fortinet prendra en charge le build, le run, le design et l’industrialisation des infrastructures de sécurité réseau. Le poste requiert une très forte expertise technique et une capacité à intervenir dans des environnements sensibles à haute disponibilité. Missions principales Assurer le build , le run et le design des plateformes de sécurité reposant sur l’écosystème Fortinet (FortiGate, FortiManager, FortiAnalyzer…). Réaliser l’ ingénierie avancée sur les solutions Fortinet : architecture, intégration, optimisation, troubleshooting N3. Contribuer à l’ automatisation et à l’industrialisation (scripts, API, Ansible, pipelines CI/CD…). Intégrer les solutions au sein d’un réseau d’entreprise complexe (concepts avancés L2/L3, segmentation, zones, politiques de sécurité…). Participer au traitement des incidents majeurs, à l’analyse de cause racine et aux plans d’amélioration continue. Contribuer aux projets de transformation : modernisation, refonte, migration, montée de version… Rédiger et maintenir la documentation technique, les schémas, les procédures d’exploitation. Participer à la veille technologique sur les solutions réseau & sécurité.
Freelance

Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)

Pickmeup
Publiée le
Dataiku
Numpy
Pandas

2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6320 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous