Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 59 résultats.
Freelance

Mission freelance
Data engineer Snowflake / DBT

PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT

12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
CDI

Offre d'emploi
Data Ingénieur Sénior H/F

CONSORT GROUP
Publiée le
DBT
Snowflake

Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Analyst Sénior H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data ? Ce poste est fait pour vous. En tant que Data Engineer Snowflake Senior , vous êtes responsable de la structuration, de la gouvernance et de l’industrialisation de notre écosystème data dans le cadre d’une migration stratégique vers Snowflake. Vous encadrez également une équipe mixte prestataire/client. : Côté build : Participer à la migration des données vers Snowflake Concevoir et structurer l’architecture data cible Définir et mettre en place les workflows de traitement de données Mettre en place des standards de développement (bonnes pratiques, normes de code) Définir les règles de gouvernance Data (qualité, sécurité, traçabilité) Implémenter les pipelines de données robustes et scalables Contribuer à l’amélioration continue de la plateforme data Côté run : Accompagner, former et faire monter en compétence l’équipe Mettre en place des dispositifs de supervision et de monitoring Définir et piloter les stratégies de tests qualité des données Gérer les incidents et assurer leur résolution rapide Garantir la fiabilité, la performance et la disponibilité des traitements Assurer le maintien en condition opérationnelle de la plateforme data C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements Data exigeants. Vous aimez structurer, transmettre et faire grandir une équipe tout en restant proche de la technique. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Snowflake, DBT, Airflow, SMP Excellente maîtrise de SQL et Python Connaissances en Data Gouvernance et Data Quality Environnements Cloud (AWS apprécié) Outils de datavisualisation type Qlik (un plus) C’est votre manière de faire équipe : Leadership et capacité à encadrer une équipe mixte Excellentes compétences en communication et pédagogie Esprit d’analyse et de structuration Proactivité et force de proposition Sens des responsabilités et orientation résultats C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 43000 € à 48000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
Freelance

Mission freelance
247735/Developpeur experimenté DBT

WorldWide People
Publiée le
DBT

6 mois
400-550 €
Vélizy-Villacoublay, Île-de-France
Developpeur experimenté DBT. Contexte de la mission Mission chez un client dans la Defense (localisation Velizy, 3 jours par semaine), contexte de mise en oeuvre de l'outil DBT pour les flux de données sur une Data Platform (probable remplacement de la solution Talend). Le client souhaite quelqu'un ayant une experience significative sur DBT : pour les flux de transformation, mais aussi la data quelity et le datalineage. Probable presence de Airflow dans le paysage : c'est encore mieux de connaitre cet outil. Objectifs et livrables Traitement DBT DAG DBT Best practice CICD Compétences demandées Compétences Niveau de compétence Programmation Python Avancé Apache Airflow Avancé Optimisation SQL Expert DBT Expert
Freelance

Mission freelance
247066/Expert DBT

WorldWide People
Publiée le
DBT

3 mois
Vélizy-Villacoublay, Île-de-France
Expert DBT Dans le cadre de notre initiative de modernisation et de standardisation de nos processus de transformation des données au sein du groupe, nous recherchons un Data Engineer expérimenté spécialisé dans la dbt (data build tool). L'ingénierie des données soutiendra la mise en œuvre d'une plateforme DBT, garantissant les meilleures pratiques et permettant des pipelines de données robustes et évolutifs. Anglais fluent Objectifs et livrables Actions : Proposer les meilleures pratiques et directives pour l'outil de gestion des données DBT, du développement au déploiement : définition et mise en œuvre des normes avec le responsable technique ELT Soutien lors de la mise en œuvre du projet : qualification et transformation Prise en charge de l'optimisation et de la configuration des outils de gestion des données Dbt (support technique) Co-définir l'architecture, la stratégie et le modèle ELT, en collaboration avec des experts techniques de l'entité. Capture du besoin : définir la faisabilité technique et la charge de travail associée Conception des connecteurs/emplois avec le chef de technologie DBT Développement des emplois DBT, déploiement, tests d'acceptation et rédaction de documentation Audit d'emploi Préparer et animer une session de formation / transfert de connaissances Participer à la stratégie et à la gouvernance d'intégration des données Définir les prérequis techniques et les modèles Étudier l'analyse des lacunes pour les cas d'utilisation de la migration (de la solution existante vers la Dbt) Participer au pilote Inner Source avec l'entité du groupe Rédaction de spécifications techniques Participer à la communication : présentation, communauté WW ELT Fournir les meilleures pratiques pour maintenir le système en conditions opérationnelles optimales. Co-définir la définition de la stratégie de kogging et la gestion d'événements Compétences demandées Compétences Niveau de compétence DBT Confirmé Data build tool Confirmé
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Analytics Engineer

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Analytics Engineer pour structurer, industrialiser et fiabiliser les couches analytiques d’un socle data moderne basé sur Snowflake. Vous analyserez les besoins métiers et techniques, proposerez des trajectoires d’évolution des modèles de données (médaillon, modularisation, refactoring des transformations) et guiderez leur mise en œuvre avec dbt et Snowflake. Vous serez responsable de la conception des modèles analytiques, de leur performance, de leur maintenabilité et de leur qualité, en intégrant des tests automatisés, de la documentation et des bonnes pratiques de gouvernance des données. Vous travaillerez main dans la main avec les équipes Data Engineering, BI et métiers pour garantir une cohérence entre ingestion, transformation et consommation des données. Vous participerez à l’optimisation des requêtes, à la structuration des vues métiers et à la mise en place de mécanismes de traçabilité et de versioning des modèles. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes sur les meilleures pratiques de modélisation analytics et d’usage avancé de Snowflake et dbt.
Freelance

Mission freelance
Développeur BI (Rennes) H/F

LeHibou
Publiée le
DBT
Talend

3 mois
300-400 €
Rennes, Bretagne
Notre client dans le secteur Assurance recherche un/une Développeur BI H/F Description de la mission: Nous recherchons un(e) Freelance pour une mission d'expertise en développement BI. Dans le cadre d’un projet stratégique de refonte décisionnelle, notre client — un acteur majeur du secteur de l’assurance — recherche un Développeur BI pour renforcer son équipe Data. La mission s’inscrit dans un programme long terme visant à remplacer l’ancien Data Warehouse par une nouvelle modélisation DataVault , destinée à alimenter les reporting des actuaires, notamment sur les sujets de prévoyance. Le Développeur BI interviendra au sein de l’équipe Data et aura pour missions principales : Concevoir, développer et maintenir des Data Marts liés au produit sur lequel travaille Adèle. Participer activement à la mise en place et à l’évolution de la nouvelle architecture DataVault . Contribuer à l’alimentation des reporting métiers, en particulier pour les équipes d’actuaires. Collaborer avec les équipes internes (dont Othman à Rennes) et échanger avec les actuaires pour affiner les spécifications. Garantir la qualité, la performance et la fiabilité des pipelines de données.
Freelance

Mission freelance
Lead Data (DBT / Databricks / Power BI)

HOXTON PARTNERS
Publiée le
Databricks
DBT
PowerBI

9 mois
650-700 €
Suisse
Dans le cadre du renforcement de ses équipes data, nous recherchons un Lead Data pour accompagner un client basé en Suisse sur des enjeux stratégiques autour de la data platform et de la valorisation des données. Vos missions : Prendre le lead d’une équipe de 4 développeurs data Piloter les développements et garantir la qualité des livrables Concevoir et faire évoluer l’architecture data Mettre en place et optimiser les flux de transformation avec dbt Exploiter la plateforme Databricks pour le traitement et la gestion des données Accompagner les équipes métiers sur la visualisation via Power BI
Freelance

Mission freelance
Data Engineer (Rennes) H/F

LeHibou
Publiée le
DBT
Microsoft Power BI
Snowflake

3 mois
300-400 €
Rennes, Bretagne
Notre client dans le secteur Assurance recherche un/une Data Engineer H/F Description de la mission: Pour accélérer les travaux, notre client — acteur majeur de l’assurance — recherche un Data Engineer disponible rapidement pour une mission courte et ciblée. Ce besoin est ponctuel mais stratégique dans le cadre d’un projet décisionnel, la DSI impose une finalisation impérative avant fin juin 2026 . Le Data Engineer interviendra en renfort de l’équipe Data pour : Migrer des reporting Power BI actuellement basés sur des fichiers vers Snowflake . Préparer et structurer les données dans Snowflake pour une future exploitation sous Tableau . Participer à la mise en place ou à l’ajustement des pipelines via DBT . Réaliser un peu de transformation via Talend si nécessaire. Garantir la qualité, la performance et la fiabilité des flux migrés. Collaborer avec les équipes internes pour respecter les délais imposés par la DSI.
Freelance

Mission freelance
Analytic Engineer / Expert Qlik Finance & HR

VISEO
Publiée le
DBT
Qlik
Snowflake

12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
Freelance
CDI

Offre d'emploi
Senior Engineer Snowflake

VISEO
Publiée le
Cloud
DBT
Snowflake

12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Freelance

Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)

ALLEGIS GROUP
Publiée le
DBT

12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
CDI

Offre d'emploi
Tech Lead Data Snowflake Lille

Proxiad
Publiée le
Databricks
DBT
Snowflake

48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance

Mission freelance
[SCH] Developpeur experimenté DBT - 1366

ISUPPLIER
Publiée le

10 mois
500-550 €
Vélizy-Villacoublay, Île-de-France
Mission chez un client basé à Vélizy / La Défense (présence 3 jours/semaine) dans un contexte de déploiement de dbt sur une Data Platform (probable remplacement de Talend). Le client cherche un profil avec une expérience significative sur dbt, incluant les flux de transformation mais aussi data quality et data lineage. Connaissance Airflow fortement appréciée. Mission : -Concevoir, développer et maintenir les transformations dbt (modèles, macros, tests, documentation). -Mettre en place la data quality (tests dbt, contrôles, conventions, monitoring qualité). -Assurer la traçabilité / lineage (documentation, dépendances, exposition lineage selon outils). -Orchestrer l’exécution dbt via Airflow (DAGs dbt, scheduling, dépendances, retries, alerting). -Définir et appliquer les best practices dbt (structure projet, naming, environnements, code review). -Industrialiser via CI/CD (build/test/deploy), et optimiser la performance SQL. Profil attendu : -Expert dbt : modèles en couches, macros/packages, tests, documentation/lineage, optimisation. -Très bon niveau SQL (performance, optimisation, volumétrie). -À l’aise sur Airflow (DAGs, dépendances, exploitation, troubleshooting). -Capable d’industrialiser via CI/CD et de travailler avec une posture “best practices / standards”. -Bon niveau Python (scripts, utilitaires, debugging). -Ok pour 3 jours sur site à Vélizy.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

59 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous