Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 444 résultats.
Freelance

Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F

LeHibou
Publiée le
Snowflake

9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
CDI

Offre d'emploi
Data analyst (F/H)

█ █ █ █ █ █ █
Publiée le

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Data Engineer / Data Ops (H/F)

QODEXIA
Publiée le
Apache Spark
AWS Cloud
Azure

10 jours
46k-48k €
430-450 €
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Contexte Notre client est un groupe qui constitue un majeur de la transition énergétique, engagé à atteindre la neutralité carbone d’ici 2045. Présent dans plus de 30 pays et fort de plus de 90000 collaborateurs, le Groupe intervient sur l’ensemble de la chaîne de valeur de l’énergie : production renouvelable, infrastructures gazières et services énergétiques. Le COE Data Groupe accompagne les entités du Groupe dans l’industrialisation de leurs usages data, en s’appuyant sur un écosystème moderne construit autour de Databricks. Dans ce cadre, le poste de Data Engineer / Data Ops contribue à concevoir, optimiser et exploiter des pipelines et architectures data fiables, scalables et alignés avec les besoins métiers.
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
CDI

Offre d'emploi
Assistant Data Analyst (H/F) - Alternance

█ █ █ █ █ █ █
Publiée le
Apache Spark
Microsoft Excel
Python

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix

OBJECTWARE
Publiée le
Hadoop
Python
Teradata

3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Freelance

Mission freelance
SENIOR DATA AND AI ENGINEER

CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake

1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission 􋰄 Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). 􋰄 Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. 􋰄 Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. 􋰄 Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). 􋰄 Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. 􋰄 Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Freelance

Mission freelance
Développeur Data (H/F) – Confirmé – Nantes

CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
Freelance
CDI

Offre d'emploi
AMOA / Business Analyst Data - H/F

K-Lagan
Publiée le
AMOA

1 an
Niort, Nouvelle-Aquitaine
K-LAGAN Paris et périphérie (Hybride) EnregistrerPostuler 🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurance / Banque , basé entre Paris et Niort . 🔍 Contexte Vous interviendrez sur des projets data à forts enjeux métier, dans un environnement structuré et en constante évolution. Votre rôle sera clé pour faire le lien entre les équipes métier et IT, et garantir la bonne traduction des besoins en solutions concrètes. 🎯 Missions Recueillir, analyser et formaliser les besoins métiers Assurer la coordination fonctionnelle des projets Piloter les phases de recette et validation Animer des ateliers et communautés métiers Accompagner les équipes dans la mise en œuvre des solutions data Contribuer au bon déroulement des projets et à leur alignement avec les enjeux métier
Freelance
CDI

Offre d'emploi
Senior Engineer Snowflake

VISEO
Publiée le
Cloud
DBT
Snowflake

12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Freelance

Mission freelance
Data Gouvernance

Kamatz
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Lille, Hauts-de-France
Freelance Data Catalog Engineer – Collibra Mission – Data Platform / Data Governance Nous recherchons un(e) Freelance Data Catalog Engineer spécialisé(e) Collibra pour accompagner l’évolution et l’intégration du Data Catalog au sein d’un écosystème data moderne. Vos missions Configuration & développement Collibra Concevoir et implémenter des solutions répondant aux besoins métiers Administrer et configurer le Data Catalog (workflows, assets, modèles) Développer et déployer des workflows adaptés aux cas d’usage Recueillir, analyser et prioriser les besoins utilisateurs Intégration Data Platform Participer à l’intégration du Data Catalog avec les outils de la Data Platform Développer et maintenir les échanges de métadonnées (APIs, connecteurs, crawlers) Configurer les capacités Edge selon les périmètres de collecte Collaborer avec les équipes architecture et data engineering Data Governance & Qualité Contribuer aux initiatives de gouvernance des données Intégrer les indicateurs de qualité (Data Quality Metrics Store) Participer au programme Data Contract Compétences techniques attendues Solide expérience sur Collibra Data Catalog (configuration, administration, workflows) Maîtrise des APIs, connecteurs et intégration de systèmes Bonne compréhension des architectures Data Platform / Data Lake / Data Warehouse Expérience en data governance et gestion des métadonnées Connaissance des outils de data quality est un plus
Freelance
CDD

Offre d'emploi
Data Governance Lead

Gentis Recruitment SAS
Publiée le
Data Mesh

6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
CDI
Freelance

Offre d'emploi
Analyst Support IT Salle des Marchés

cty
Publiée le
Market data
Support utilisateurs

1 an
40k-65k €
400-650 €
Paris, France
La prestation concernera l'activité de support technique des applications Market Data, Trading, Broker et Contribution, utilisées par les traders de la salle des marchés Fixed Income. En contact permanent avec la salle de marché, vous interviendrez principalement sur les applications de Pre-trade, installées sur les postes de travail des utilisateurs. Vous assistez les utilisateurs dans leur utilisation des applications installées sur leurs postes de travail : • Market data • Applications Broker • Trading A ce titre, vos missions principales sont : - Support niveaux 2 et 3 : * Gestion des incidents incluant l'identification de la root cause et les actions de résolution * Gestion de la communication en direction des utilisateurs, du management et des autres équipes IT * Gestion des demandes utilisateurs * Maintien à niveau des architectures de Backup et de PSI de façon continue - Maintenance évolutive * Gestion des évolutions des applications sous gestion. * Choix de la meilleure solution en rapport avec les standards du client * Définition et suivi d’un plan d’action, d’un planning et d’un plan de charge * Mise en place de la solution en coordination avec les autres équipes IT (réseau, serveurs, Citrix, …) * Pilotage du déploiement à Paris et à l’international
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
6444 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous