Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 287 résultats.
Freelance
CDI

Offre d'emploi
Data engineer - Urgent

ANDEMA
Publiée le
Dataiku

12 mois
40k-45k €
100-450 €
Niort, Nouvelle-Aquitaine
Job description: Missions principales Concevoir, développer et maintenir des pipelines de données robustes et industrialisés Mettre en œuvre des processus ETL / ELT en environnement projet Structurer, automatiser et fiabiliser les flux de données de bout en bout Participer à la mise en production et au suivi des traitements data Collaborer avec les équipes métiers et data (analystes, BI, etc.) Contribuer à l’amélioration continue des pratiques data et de la qualité des données Profil recherché Data Engineer avec minimum 2 ans d’expérience réelle sur Dataiku, en contexte projet et industrialisation (critère indispensable) Excellente maîtrise du SQL Solide expérience des chaînes de traitement de données (ETL / ELT) Capacité à travailler sur des environnements structurés et contraints Une connaissance des outils BI (Tableau, Business Objects) et/ou SAS est un plus Environnement technique (indicatif) Dataiku SQL Outils ETL / ELT Outils BI (Tableau, BO, SAS – selon profils) 3 jours de présentiel sur site Lieu : Niort
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Freelance
CDI

Offre d'emploi
Data Engineer Cloud & BI (Finance)

Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)

1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Freelance
CDI

Offre d'emploi
Data Engineer + Développeur H/F

WINSIDE Technology
Publiée le
AI

1 an
40k-56k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer + Développeur H/F ! 🚀 Ce poste est fait pour toi si : Tu as 4 ans d'expérience professionnelle à minima sur des missions de Data Engineer . Tu as 3 ans d'expérience professionnelle à minima sur des missions de Développeur/Développeuse . Tu as une première expérience professionnelle ou une formation en AI/GenAI . Tu as 3 ans d'expérience professionnelle à minima en NodeJs ou Java . Tu parles anglais à un niveau professionnel. Missions: En tant que Data Engineer avec un rôle de Discovery Lead, tu es un profil moteur sur l'ensemble du cycle : de l'analyse des nouvelles tendances à la mise en production de MVP (Minimum Viable Product): 1/ Pilotage du Discovery 2/ Veille, Analyse & Architecture 3/ Développement de MVP (Minimum Viable Product) 4/ Mesure & Communication Contexte : accélération des technologies autour de l’AI et du GenAI, de transformation digitale et d’organisation d’entreprise. Démarrage : rapide. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance

Mission freelance
Data engineer H/F

Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks

2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Freelance

Mission freelance
Data Engineer - LYON

Ethic Technology
Publiée le
Azure
Databricks
Python

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Intitulé du poste : Data Engineer Localisation : Lyon Expérience souhaitée : 5 à 7 ans en Data Engineering, idéalement avec une expérience en analyse de données Rôle et responsabilités du consultant recherché : Data Engineer confirmé Garantir l’intégration des sources de données nécessaires à la continuité du reporting interne et externe Assurer la continuité et le développement des flux de données entre les sources et les rapports Contribuer au plan de convergence des méthodes de mesure de la performance via les KPI Contribuer à la cartographie des flux de données et des KPI utilisés dans les deux organisations, ainsi que de leurs méthodes de calcul Être l’interface avec le Data Office afin de garantir les meilleures pratiques de développement Ce rôle sera un point de dépendance unique (Single Point of Dependency) Compétences techniques requises SQL / Python Databricks Data Lake & DataMart Développement de cubes Environnement Microsoft Gestion de projets techniques Qlik Autres compétences attendues Anglais niveau B2 / C1 Compétences interpersonnelles Travail en équipe Parcours et expérience Expérience dans des projets complexes en environnement international Description de la mission Support de l’équipe Data locale dans le cadre de la migration d’une plateforme de téléphonie Livrables attendus Ingestion des données dans le Data Lake Développement du DataMart Automatisation des flux de données avec Pegasus Développement de cubes Environnement technique Microsoft, AVAYA, GENESYS
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : sliv9e59p7
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 5nko8xh5pb
Freelance
CDI

Offre d'emploi
DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE

UCASE CONSULTING
Publiée le
DBT
Snowflake
Tableau software

3 ans
40k-55k €
450-580 €
Paris, France
🔹 DATA ENGINEER SENIOR – TABLEAU / DBT / SNOWFLAKE🎯 Missions principales Recueil et compréhension des besoins métiers dans un environnement data complexe Conception et développement de pipelines de données robustes et scalables Modélisation des données et transformation via dbt Optimisation des performances liées à de fortes volumétries Mise en qualité, fiabilité et traçabilité des données Contribution aux bonnes pratiques data (tests, documentation, industrialisation) Collaboration étroite avec les équipes BI, métiers et IT 🧠 Prérequis techniques Snowflake : excellente maîtrise (modélisation, performance, volumétrie) dbt : maîtrise confirmée (models, tests, documentation) Tableau : forte expérience (dataviz, performance, bonnes pratiques BI) SQL avancé indispensable Expérience sur des environnements data complexes et fortement industrialisés Notions de gouvernance, qualité et sécurité des données appréciées 🧑‍💼 Seniorité attendue Profil senior 5 à 8 ans d’expérience minimum en data engineering Capacité à être autonome et force de proposition 🤝 Soft skills clés Forte capacité d’analyse et de compréhension du besoin métier Autonomie et sens des responsabilités Rigueur, structuration et exigence technique Aisance dans les échanges avec des interlocuteurs variés Capacité à évoluer dans un contexte exigeant et mouvant
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Data Engineer Senior Azure / Snowflake

CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
Azure DevOps

3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)

EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python

3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
Freelance

Mission freelance
Data Engineer (H/F) - 75

Mindquest
Publiée le
Apache Airflow
Apache Spark
BigQuery

3 mois
Paris, France
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Freelance

Mission freelance
AI Data Engineer (Microsoft Fabric & Azure) (h/f)

emagine Consulting SARL
Publiée le

6 mois
550-650 €
75001, Paris, Île-de-France
Vous êtes un ingénieur de données IA expérimenté et possédez une expertise pratique approfondie de Microsoft Fabric et de l'ingénierie de données Azure moderne ? emagine vous offre l'opportunité de participer au développement, à l'optimisation et à la mise à l'échelle de pipelines de données et d'architectures lakehouse qui permettent la mise en œuvre d'initiatives avancées en matière d'analyse et d'IA au sein d'une équipe internationale. Are you an experienced AI Data Engineer with deep hands‑on expertise in Microsoft Fabric and modern Azure data engineering? emagine has an opportunity for you to support the development, optimisation, and scaling of data pipelines and lakehouse architectures that enable advanced analytics and AI initiatives across a global team. Skills & Experience 10+ years’ experience as a Data Engineer, AI Engineer, or similar role. Strong hands‑on experience with Microsoft Fabric (Lakehouse, Data Engineering, Data Factory, Data Pipelines). Deep expertise across Azure Data Services: Azure Data Factory Azure Databricks / Spark Azure Synapse Analytics (SQL Pools) Azure Storage / ADLS Gen2 Azure Functions Azure Machine Learning Proficiency in Python and SQL for data processing and transformation. Strong experience building lakehouse architectures and Delta Lake pipelines. Knowledge of modern DevOps/MLOps practices including testing, version control, and automated deployment. Familiarity with governance solutions such as Azure Purview or Fabric governance. Key Tasks & Deliverables You will play a pivotal role in designing and running data engineering capabilities that enable analytics, AI, and ML use cases. Responsibilities include: Data Engineering & Architecture Design, build, and maintain scalable data pipelines on Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Warehouse, OneLake). Develop ingestion, transformation, and orchestration workflows using Azure Data Factory, Azure Databricks, Azure Synapse, and Azure Functions. Implement and optimize Delta Lake architectures for both structured and unstructured datasets. Build reusable, production-grade data products supporting analytics, ML, and AI workloads. AI & Advanced Analytics Integration Collaborate with Data Scientists and ML Engineers to operationalize models via Azure Machine Learning, Fabric Data Science, or Databricks. Prepare feature‑engineered datasets for machine learning workloads. Implement MLOps workflows including automated deployments, model monitoring, and pipeline observability. Governance, Quality & Security Implement data quality, observability, monitoring, and lineage frameworks using Fabric and Azure Purview. Ensure compliance with governance, privacy, and security standards. Manage CI/CD pipelines and version‑controlled data code via Azure DevOps or GitHub. Collaboration & Stakeholder Engagement Work closely with business analysts, product owners, and domain experts to define data requirements and deliver high‑value solutions. Maintain documentation of data models, sources, pipelines, and best practices. Provide technical leadership and mentoring across the engineering team. Why join this project? You’ll be joining a collaborative, enabling environment that values innovation while giving you autonomy to architect modern data solutions at scale. Apply with your latest CV or reach out to Brendan to find out more.
287 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous