Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 236 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
Dataiku
SQL

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte de la mission Au sein de l'entreprise, la Direction des Systèmes d'Information métier (DSIM) est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du Système d'Information dédié à l'assurance vie et à la finance. Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA Les missions principales incluront : Conception de Pipelines (ETL) : Concevoir, développer et optimiser des flux de données robustes et performants (ETL/ELT) pour l'alimentation des entrepôts et des DataMart. Modélisation : Participer activement à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle) adaptés aux besoins métier de l'Assurance Vie. Industrialisation : Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée, notamment via l'outil Dataiku Visualisation et Reporting : Assurer la bonne intégration des données pour leur exploitation dans des outils de Business Intelligence, notamment Tableau. Maintenance et Optimisation : Garantir la performance, la qualité et le maintien en condition opérationnelle de l'infrastructure et des flux de données. Compétences Techniques et Expertise Requises Nous recherchons un profil technique avec une forte appétence pour les outils d'industrialisation de la donnée Domaines de compétences clé Niveau Souhaité : Profil de niveau III exigé. Dans l'idéal une maîtrise de l'outil Dataiku est souhaitée pour la préparation et l'industrialisation des flux. Expertise du langage SQL. Capacité à challenger une solution, chiffrer les couts de réalisation et mener à bien les phases de qualification. Visualisation : Connaissance de l'intégration et de l'optimisation des données pour Tableau (ou équivalent )) Modélisation : Expertise en modèle de données (MCD, dimensionnel) et capacité à les mettre œuvre Expérience solide dans la conception et l'implémentation de processus ETL/ELT Expérience BO / SAS serait un plus dans le cadre des migrations à réaliser. Connaissance du métier de l'assurance vie serait un réel plus également Dispositif Souhaité : 3j sur site à Minima sur Niort des autonomie
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

Publiée le
Apache Hive
Apache Spark
CI/CD

1 an
40k-45k €
400-560 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Au sein de la direction IT Data Management & BI , vous intégrez l’équipe Big Data & API / Squad Financing & Risk . L’équipe développe et maintient un datalake , utilisé comme plateforme de données par les équipes IT et métiers (finance, risque). 🚀 Missions En tant que Data Engineer , vous intervenez sur le datalake FinLake avec les responsabilités suivantes : Assurer la gestion de la production (suivi des flux, incidents, performance) Réduire et maîtriser la dette technique Analyser l’ architecture existante et proposer des évolutions Réaliser les développements Big Data liés aux projets métiers Participer aux déploiements et à l’industrialisation des traitements 🛠️ Environnement technique Big Data : Spark, PySpark, Scala, Hadoop (on-premise) Data & requêtage : Hive, SQL/HQL, Starburst, Indexima Scripting : Unix / Bash DevOps & industrialisation : Jenkins, CI/CD, XLDeploy, XLRelease Outils projet : Jira
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Microsoft Power BI
Python
Snowflake

24 mois
Toulouse, Occitanie
Télétravail partiel
Panda Services est une Entreprise de Services du Numérique (ESN) spécialisée en ingénierie informatique. Forte de plus de 20 ans d’expérience, elle accompagne ses clients grâce à des prestations d’assistance technique exigeantes et de qualité. Nous recherchons un(e) Data Engineer Expérimenté(e) pour rejoindre notre client dans le secteur bancaire. Vous serez en charge de concevoir et développer des pipelines de données robustes, d’intégrer des sources multiples et de mettre à disposition des données fiables pour les équipes business et analytics. Localisation = Toulouse [31] Missions Principales : Développer et maintenir des pipelines ETL/ELT performants sur Snowflake et autres systèmes de données. Concevoir et optimiser l’architecture Data Lake / Data Warehouse et les bases de données relationnelles et NoSQL. Collaborer avec les équipes business et analytics pour créer des dashboards et rapports Power BI . Assurer l’intégrité, la qualité et la sécurité des données. Automatiser et améliorer les processus de traitement des données via Python et SQL . Documenter les pipelines et procédures de gestion des données. Profil Recherché : Diplôme en informatique, statistiques, mathématiques ou équivalent. Minimum 5 ans d’expérience en tant que Data Engineer ou rôle similaire. Maîtrise de Python et SQL pour le traitement et l’automatisation des données. Expérience avec Snowflake et bases de données relationnelles et NoSQL. Connaissance de Power BI pour la visualisation et le reporting. Capacité à travailler en équipe, rigueur, sens de l’analyse et autonomie
Freelance

Mission freelance
Data engineer

Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance
CDI

Offre d'emploi
DATA ENGINEER ANALYTIC

Publiée le
DBT
Snowflake
Tableau software

3 ans
40k-60k €
400-530 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client nous recherchons un data engineer analytic SQL / DBT / SNOWFLAKE / TABLEAU. Contexte du poste Dans le cadre de la transformation digitale et de l’optimisation de l’exploitation des données, notre client recherche un(e) Data Engineer Analytic capable de jouer un rôle central entre les équipes data engineering, revenu management, marketing et distribution. Le/la candidat(e) sera point de coordination clé, garantissant la fluidité des échanges et la bonne exécution des projets analytiques tout en accompagnant l’équipe technique. Missions principales • Coordination et interface entre les équipes Data Engineering, métiers (Revenue Management, Marketing, Distribution) et votre N+1. • Analyse de l’environnement data et des pipelines existants pour identifier les améliorations et opportunités. • Accompagnement de 2 Data Engineer pour l’exécution technique rapide et efficace sur les sujets prioritaires. • Recueil et formalisation des besoins métiers, transformation en spécifications techniques pour l’équipe data. • Développement et optimisation de modèles DBT, requêtes Snowflake et tableaux de bord Tableau. • Rôle d’ambassadeur produit : vulgariser et promouvoir les solutions data auprès des équipes métiers, assurer l’adoption et la montée en compétences. • Communication claire et régulière avec les équipes métiers et techniques pour assurer un suivi efficace des projets, donc un profil capable d’aller vers les autres de manière agile, plutôt que de se limiter à une productivité dans des environnements très cloisonnés. Environnement technique • DBT pour la modélisation et la transformation des données • Snowflake pour l’entrepôt de données • Tableau pour la visualisation et reporting • SQL
Freelance

Mission freelance
Data Engineer DBT/Snowflake 

Publiée le
DBT
Snowflake

3 mois
400-420 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Snowflake : Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) DBT : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

30k-50k €
Strasbourg, Grand Est
Télétravail partiel
Notre client, société financière, recherche un Data Engineer pour rejoindre sa Data Factory. Responsabilités : Au sein d'une équipe dynamique, vous interviendrez sur l'ensemble des étapes des projets décisionnels : - Recueil et analyse des besoins (échanges avec la MOA et les utilisateurs) ; - Rédaction de spécifications fonctionnelles et techniques ; - Modélisatnique ; - Mise en production et suivi.
Freelance

Mission freelance
Big Data Engineer (h/f)

Publiée le

1 mois
450-550 €
France
Télétravail partiel
Introduction & Résumé Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe et être responsable de la mise à disposition des données relatives aux études et projets d’intelligence artificielle. Vous aurez l’opportunité de travailler sur des technologies de pointe dans un environnement dynamique. Responsabilités En tant que Data Engineer, vous serez chargé de : Réaliser les spécifications techniques pour les flux de données (ingestion, transformation, etc.). Assurer le développement de solutions d’ingestion de données et de Data Engineering. Développer des flux (Kafka, Talend, Spark, Pyspark). Environnement Technique : Big Data, Cloudera, Hive, Spark, Pyspark, Kafka, Talend, SQL Server, PowerBI Key Requirements Formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data. Expérience de 7 ans minimum sur un poste similaire. Parfaite maîtrise dans la conception, le développement et l’optimisation de flux. Expérience dans l'écosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark). Connaissance des bases de données relationnelles (SQL Server). Nice to Have Maîtrise de Talend et compétences en Datavisualisation. Capacité à échanger en Anglais à l’écrit et à l’oral. Autonomie, capacités d’adaptation et sens de la communication. Autres Détails Localisation : Dunkerque. Télétravail : 1 jour de télétravail par semaine. Durée : Minimum 10 mois.
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance

Mission freelance
Data engineer(H/F)

Publiée le
Azure
Python
SQL

3 ans
400-500 €
Hauts-de-Seine, France
DATA ENGINEER AZURE (KPI, DBT, MÉTIER) Intitulé Data Engineer Azure – KPI, dbt (Data Build Tool) & compréhension métier __________ Contexte Dans le cadre du renforcement de son équipe data, le client recherche un Data Engineer capable d’intervenir à la fois sur la technique et sur la compréhension de l’usage de la donnée. L’équipe data est déjà en place. Le besoin porte sur un profil capable de : • dialoguer avec les équipes métier, • établir des KPI, • et maîtriser dbt (Data Build Tool), outil central permettant de modéliser la donnée et de définir clairement comment elle doit être utilisée et exploitée. __________ Attentes principales du client Le client attend un consultant qui : • Sait établir des KPI à partir des besoins métier, • Comprend la logique métier derrière les indicateurs, • Maîtrise dbt (Data Build Tool) pour transformer et modéliser la donnée, • Est capable d’expliquer et de justifier les règles de calcul des KPI. dbt est utilisé comme un outil de structuration et de compréhension de la donnée, et non uniquement comme un outil technique. __________ Rôle du consultant • Être un interlocuteur data privilégié des équipes métier • Comprendre les processus et enjeux business • Traduire les besoins métier en KPI clairs et cohérents • Utiliser dbt (Data Build Tool) pour modéliser la donnée et formaliser les règles de calcul • Travailler en complément et en accompagnement de l’équipe data existante __________ Missions principales Métier & KPI • Échanger avec les équipes métier • Comprendre leurs objectifs et problématiques • Établir et formaliser des KPI • Clarifier les définitions et règles de calcul des indicateurs • S’assurer que la donnée produite correspond à un usage concret Data & technique • Intervenir sur un environnement Microsoft Azure • Travailler sur Microsoft Fabric • Transformer et modéliser la donnée avec dbt (Data Build Tool) • Exploiter la donnée via SQL et Python • Garantir la cohérence, la lisibilité et la compréhension des modèles de données • Participer à la mise en production et à l’industrialisation • Documenter les modèles, transformations et KPI __________ Environnement technique • Cloud : Microsoft Azure • Plateforme data : Microsoft Fabric • Transformation & modélisation : dbt (Data Build Tool) • Langages : SQL, Python • Collaboration étroite avec équipes data et métier __________ Profil recherché • Data Engineer confirmé • À l’aise dans les échanges avec des interlocuteurs métier • Capable d’établir des KPI • Bonne compréhension de l’usage et de la valorisation de la donnée • Expérience concrète sur dbt (Data Build Tool) • Expérience sur Microsoft Fabric • Solide niveau en SQL • Esprit collaboratif, pédagogue et pragmatique __________ Qualités attendues • Bon communicant • Capacité à vulgariser la donnée • Sens du service et du collectif • Approche orientée valeur métier • Capacité à s’intégrer dans une équipe existante
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

35k-40k €
Toulouse, Occitanie
Télétravail partiel
Tu souhaites contribuer à des projets data à fort impact et participer à la construction de KPI utiles aux métiers ? Rejoins une équipe data engagée et contribue à faire évoluer une plateforme moderne orientée analytics. Tes missions Au cœur de la plateforme data, tu interviens sur l’ensemble de la chaîne de valorisation des données : Tu fais évoluer la plateforme afin de collecter et distribuer les données d’activité pour la construction de KPI Tu identifies et mappes les sources de données Tu accompagnes et réalises le design des modèles de données adaptés aux besoins métiers Tu développes et fais évoluer le lakehouse basé sur Snowflake Tu pilotes, en lien avec les équipes Systèmes et Réseaux (et avec l’appui d’un·e Data Architect), la mise à disposition des ressources et l’ouverture des flux nécessaires Tu développes et/ou accompagnes les Business Analysts dans l’utilisation de Snowflake via Power BI ou Streamlit Tu produis et maintiens la documentation IT obligatoire : MCD, HLD (High Level Design), DAT (Dossier d’Architecture Technique), DEX (Dossier d’Exploitation) Après livraison, tu prends en charge l’analyse et la correction des incidents liés aux composants data
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 410p0auqgf
Freelance

Mission freelance
Data Engineer - Toulouse

Publiée le
Apache Spark
Java

6 mois
400-450 €
Toulouse, Occitanie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Freelance

Mission freelance
Data Engineer DBT & IICS 

Publiée le
DBT
Informatica
Snowflake

3 mois
400-420 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
L’équipe est à la recherche d’un Data Engineer senior pour piloter et structurer la migration des flux existants depuis Informatica Intelligent Cloud Services (IICS) vers une architecture moderne basée sur DBT et Snowflake . Ce rôle est clé dans la transformation de la plateforme data : le candidat retenu interviendra à la fois sur les aspects techniques, méthodologiques et de gouvernance des transformations de données. Le candidat idéal devra jouer un véritable rôle de « traducteur » entre l’existant et la cible. Il devra être capable de : analyser et comprendre des mappages IICS hérités , souvent complexes, peu documentés et construits de manière monolithique, effectuer un travail approfondi de rétro-ingénierie afin d’identifier précisément la logique métier, les règles de transformation et les dépendances, refactoriser ces traitements en modèles DBT SQL clairs, modulaires et maintenables , en appliquant les bonnes pratiques DBT (tests, documentation, modularité, réutilisabilité), garantir la qualité, la performance et la traçabilité des données sur Snowflake, tout en facilitant l’évolutivité et la maintenance à long terme. Ce poste nécessite une forte capacité d’analyse, une excellente maîtrise du SQL et une approche structurée de l’ingénierie data, ainsi qu’une aptitude à faire le lien entre des logiques techniques historiques et des architectures data modernes orientées analytics.
CDI
Freelance

Offre d'emploi
Data Engineer / Analyst (Secteur des Assurances)

Publiée le
Azure
Oracle
PL/SQL

1 an
45k-52k €
500-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Nous recherchons un Data Engineer / Analyst expérimenté pour rejoindre un programme de transformation Data (secteur des assurances). 🔍 Vos missions Analyser et comprendre les scripts existants en PL/SQL / SQL Étudier les flux de données et les transformations entre les couches Bronze, Silver et Gold Piloter la qualité, complétude et fiabilité des données Développer et valider des traitements en PySpark / Spark SQL Participer à la conception et à la validation des dashboards Power BI Mettre en place et promouvoir les bonnes pratiques Data Déployer les rapports auprès d’autres entités métiers Contribuer à la documentation technique et fonctionnelle
236 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous