Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 850 résultats.
Freelance
CDI

Offre d'emploi
Consultant IA / DATA

Tritux France
Publiée le
Data analysis
Data science
IA Générative

3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Freelance

Mission freelance
Mission PostGreSQL et REDIS

Codezys
Publiée le
Ansible
Bash
Greenplum

12 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission La mission se divise en plusieurs phases, à commencer par la première, dédiée aux habilitations et à la gestion des environnements. 1 phase : Habilitations Gestion des comptes utilisateur, comprenant la création de comptes techniques. Attribution des droits utilisateurs à la maille de base / selon le schéma défini. Analyse des problématiques liées aux droits et mise en place des correctifs nécessaires. Actualisation des environments depuis une sauvegarde Migration de schémas ou de tables vers un environnement de développement, préproduction ou production. Utilisation d' ptech et de scripts Python pour cette opération. Capacité à faire évoluer le code existant si requis. Copie de données Transfert de tables vers des environnements de développement, préproduction ou production. Utilisation de fonctions PL/pgSQL . Possibilité de faire évoluer le code existant si nécessaire. Création ou mise à jour de sauvegardes. Modification ou création de fichiers de configuration YAML. Paramétrage en base via SQL, avec utilisation éventuelle de Git pour la gestion des versions. Gestion de bases et schémas : création et décommissionnement Utilisation d' ptech et de fonctions PL/pgSQL . Analyse de l’impact lors de la dépose ou modification de ces composants. Vérification que les droits sont correctement configurés après chaque opération. Compétences techniques spécifiques PostgreSQL : maîtrise avancée incluant la réplication, Patroni et PgBackRest (niveau expert). Scripts et automatisation : développement en Bash, SQL, PL/pgSQL, Python, Ansible (niveau avancé/expert). Redis : connaissance approfondie de l’infrastructure Redis HA, Sentinel, et capacité à l’implémenter (expérience impérative). Administration de bases de données : maîtrise des fondamentaux. Administration système Linux : connaissance des principes de base. Greenplum : connaissance de base ou volonté d’apprentissage.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Data Engineer Snowflake - Lyon

Net technologie
Publiée le
Snowflake

3 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de la migration de BW vers Snowflake, les deux profils seront en charge de la migration des données SAP & BW vers Snowflake au sein d’une équipe d’une dizaine de personnes pour notre client. Tâches à réaliser : Concevoir et développer les pipelines d’ingestion et de transformation des données depuis SAP et BW vers la plateforme Snowflake. · Assurer la qualité, la cohérence et la sécurité des données tout au long du processus de migration. · Collaborer étroitement avec les équipes fonctionnelles et techniques pour comprendre les besoins métiers et adapter les solutions data. · Optimiser les performances des flux de données et veillez à leur scalabilité dans l’environnement Snowflake. · Participer à la documentation technique et à la mise en place des bonnes pratiques autour des données. · Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration.
CDI
Freelance

Offre d'emploi
Data base administrateur (DBA) MongoDB

Sijo
Publiée le
AWS Cloud
Azure
Mongodb

3 ans
55k-75k €
500-700 €
Île-de-France, France
Nous recherchons un Data base administrateur (DBA) MongoDB dynamique et motivé pour rejoindre le cabinet Sijo. Sijo est un cabinet de conseil en IT spécialisé dans le secteur de la banque et de la finance. Nous accompagnons nos clients dans leurs réalisations de projets techniques, ainsi que nos consultants dans leurs projets de carrière. Nous sommes un cabinet référencé auprès de la Société Générale, la BNP, la Banque Postale, le Crédit Agricole, Engie Trading et Natixis. Nous sommes référencé « Top vendeur » auprès de la Société Générale, ce qui signifie que nous faisons partie de leurs 40 1er fournisseurs. Le candidat idéal aura une expertise en gestion de base de données avec la technologie MongoDB et une bonne connaissance sur Azure et AWS.
Freelance
CDI

Offre d'emploi
Business Analyst IT Data AML/KYC Automation Luxembourg

Cogniwave dynamics
Publiée le
AML (Anti-Money Laundering)
Big Data
Know your customer (KYC)

1 an
Luxembourg
Pour une mission long terme sur Luxembourg , nous recherchons un BA IT Data compliance Automation Poste en CDI au Luxembourg de préférence : Salaire + Bonus à discuter Ouvert aux freelances (3/4 jours sur site par semaine) -Possible part time sur Paris à discuter Au sein de l’équipe IT Data Compliance Automation, vous intervenez sur un projet stratégique d’automatisation de la révision des dossiers de conformité AML/KYC Vous êtes au cœur de la transformation digitale de la fonction Compliance, en combinant technologies de pointe ( RPA, Intelligence Artificielle, OCR ) et expertise métier pour accélérer et fiabiliser les processus de révision client. MISSION Pilotage projet (Business Analyst) • Étude de l’existant : Analyser les processus existants via des ateliers métiers et de la documentation • Définition de la cible : Concevoir les processus et outils cibles, identifier les écarts fonctionnels • Cadrage fonctionnel : Rédiger les dossiers d’exigences et les expressions de besoins • Support IT : Accompagner les équipes de développement durant les phases techniques • Tests & recette : Concevoir et exécuter les plans de tests, coordonner la recette métier • Conduite du changement : Créer les supports de formation, animer les sessions, accompagner les utilisateurs Support applicatif (Run) • Support N2/N3 : Traiter les incidents et demandes des équipes opérationnelles • Investigation : Reproduire les anomalies, investiguer en base de données, diagnostiquer • Maintenance : Assurer le suivi des maintenances correctives et évolutives • Releases : Coordonner et communiquer les releases applicatifs • Amélioration continue : Proposer et mettre en œuvre des actions d’optimisation
Freelance

Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier

WorldWide People
Publiée le
Microsoft SSIS

6 mois
320-350 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance
CDI

Offre d'emploi
Data Analyst Sénior Montpellier

Deodis
Publiée le
Data analysis

36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
CDI

Offre d'emploi
Développeur C# / SQL Server (F/H)

CELAD
Publiée le

35k-40k €
Nancy, Grand Est
CDI (35-40K€) - Nancy - Télétravail 1 jour / semaine - Expérience de 2 ans minimum (hors stages / alternance) Vous souhaitez contribuer à des projets stratégiques ? Nous avons une opportunité qui pourrait vous correspondre ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur C# / SQL Server pour intervenir chez un de nos clients. Vous serez amené.e à travailler sur des projets variés, couvrant des domaines fonctionnels et techniques tels que : - la gestion des crédits (consommation, immobilier, entreprises) - la gestion des risques et la lutte contre la fraude - la gestion des garanties et du provisionnement - les activités immobilières (vente, location, promotion, financement) Votre rôle au quotidien : - Développer et déployer une nouvelle application de gestion des crédits - Fournir des outils performants aux filiales immobilières - Renforcer les capacités analytiques des applications dédiées à la gestion des risques et à la lutte contre la fraude - Mettre en conformité les systèmes avec les nouvelles réglementations européennes - Développer des outils de contrôle renforcés et une plateforme de crédit-bail innovante Stack technique : - C#, ASP.Net, SQL Server. - Grand Système IBM : Cobol, DB2, TFS. ⚙️ Vos responsabilités : - Analyse des besoins : Dialoguer avec les équipes métier pour proposer des solutions pertinentes et adaptées - Conception technique : Contribuer à l’architecture fonctionnelle et technique des solutions - Cycle de vie des projets : Être impliqué(e) dans toutes les phases, de l’analyse au déploiement et au support technique - Qualité et engagements : Respecter les plannings, les objectifs, et garantir un code propre et conforme aux standards qualité Quelques infos importantes à retenir : - Expérience de 2 ans minimum (hors stages / alternance) - Type de contrat : CDI - Télétravail : 1 jour / semaine
Freelance

Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy

Mon Consultant Indépendant
Publiée le
Data analysis
IA

1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Freelance

Mission freelance
Data Scientist – Deep Learning / NLP

ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Freelance

Mission freelance
Consultant DATA/ BI

HAYS France
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI

5 mois
Obernai, Grand Est
Nous recherchons un Consultant Data / BI capable d’intervenir sur un environnement mêlant Enterprise Architecture , Azure Data Platform , et Power BI . L’objectif : adapter un écosystème LeanIX + Data Platform à une nouvelle organisation interne, tout en assurant la mise à jour des flux, du modèle de données et des rapports analytiques. Vos responsabilités Dans le cadre de cette mission, vous interviendrez sur les sujets suivants : LeanIX Adapter la configuration LeanIX pour refléter la nouvelle organisation. Collaborer avec l’équipe Enterprise Architecture. Azure Data Platform Ajuster et optimiser les flux de données (Azure Data Factory). Adapter le modèle de données dans Azure Synapse Dedicated SQL Pool . Maintenir et faire évoluer une Azure Function en Python . Participer à des déploiements via Bicep . Power BI Mettre à jour les semantic models. Ajuster et optimiser les rapports existants. Documentation & collaboration Produire la documentation en anglais. Participer à une évaluation préliminaire d’ ARIS comme alternative potentielle.
Freelance

Mission freelance
Data Engineer Snowflake (Migration SAP / BW)

VISIAN
Publiée le
Snowflake

3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
CDI

Offre d'emploi
Client Support Engineer - Europe - Linux SQL H/F

ADSearch
Publiée le

50k-60k €
Valbonne, Provence-Alpes-Côte d'Azur
CDI – Client Support Engineer Specialist Europe - Linux SQL H/F – Création de poste – à partir de 50K – Sophia Antipolis – 2 jours de télétravail Je recrute pour une Fintech internationale en forte croissance un Client Support Engineer Specialist Europe - Linux SQL H/F , basé à Sophia Antipolis. Vous êtes à l’aise avec les requêtes SQL complexes et les commandes Linux de base ? Vous aimez travailler avec des clients exigeants ? Vous appréciez évoluer dans un environnement international ? On vous décrit souvent comme quelqu’un de brillant ? Ce poste est probablement fait pour vous. VOTRE POSTE Vous rejoignez une équipe composée de 3 développeurs back-end, 1 Technical Business Analyst et votre binôme Support Engineer basé à Valbonne. Vous collaborez également avec une équipe plus large située à Hong Kong. Avec votre binôme, vous accompagnez des clients répartis dans toute l’Europe (banques, sociétés de trading, fonds d’investissement, etc.). Vos missions : Support technique de niveau 1 / niveau 2 auprès des utilisateurs (banquiers, traders, etc.) Résolution d’incidents techniques via des requêtes SQL et du scripting Installation et configuration d’équipements informatiques Participation à l’amélioration continue des processus de support Suivi des incidents et des demandes jusqu’à leur résolution complète
Freelance

Mission freelance
Dbt Technical Expert – Data Engineer Senior

Signe +
Publiée le
DBT

12 mois
400-630 €
Paris, France
Cette mission s’inscrit dans une initiative de modernisation et de standardisation des processus de transformation de données au sein d’un grand groupe international. L’objectif est d’industrialiser une plateforme dbt (data build tool) afin de garantir : Des pipelines ELT robustes, scalables et maintenables L’application de standards homogènes à l’échelle groupe Un accompagnement technique de haut niveau auprès des équipes projets Le profil recherché est un Data Engineer expert dbt, capable d’intervenir sur la définition des standards, la mise en œuvre technique, l’optimisation, la gouvernance et la formation. Informations contractuelles Titre de la mission : Dbt Technical Expert Démarrage : ASAP Fin de mission : 31/12/2026 Localisation : Vélizy-Villacoublay (78)
2850 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous