Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 407 résultats.
Freelance

Mission freelance
Data Engineer / T -SQL / Marchés Financiers / Data Warehouse

Publiée le
Méthode Agile
Transact-SQL

2 ans
270-450 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un projet stratégique de consolidation et d’analyse des données commerciales d’une grande institution financière, nous recherchons un Data Engineer SQL confirmé pour rejoindre une équipe Agile dédiée à la gestion et à la valorisation des données de marché. Vos principales missions : Concevoir, alimenter et faire évoluer les flux de données d’un entrepôt décisionnel (Data Warehouse / Datamart). Développer et optimiser des procédures stockées en T-SQL sur SQL Server 2019. Mettre en place et surveiller l’ ordonnancement des traitements via Control-M. Intégrer des données issues de diverses sources (fichiers plats, XML, API REST…). Effectuer les tests unitaires et recettes techniques . Rédiger la documentation technique et assurer le support applicatif . Travailler en méthodologie Agile (Kanban) avec les Business Analysts. Participer aux astreintes selon le planning de l’équipe.
Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
550-650 €
Île-de-France, France
Télétravail partiel
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

Publiée le

10 mois
580-635 €
Paris, France
Télétravail partiel
Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.
Freelance

Mission freelance
Analytics Engineer - Microsoft Azure (H/F)

Publiée le
Azure
Databricks
DAX

12 mois
500-620 €
Île-de-France, France
Télétravail partiel
Contexte : Notre client, acteur majeur du secteur de l’énergie (spécialisation dans les énergies renouvelables), recherche un Analytics Engineer capable de piloter l’ensemble de la chaîne d’intégration et de valorisation de la donnée, de la collecte à la visualisation. Le poste s’inscrit dans un environnement moderne orienté technologies Microsoft (Azure, Fabric, Power BI) avec une forte proximité métier. Mission principale : - Conception et mise en œuvre de la chaîne d’intégration de données de bout en bout, depuis la collecte des sources jusqu’à la restitution. - Développement et maintenance des pipelines de données sur un environnement Microsoft Fabric / Azure (ou équivalents tels que Databricks, Synapse, Data Factory...). - Modélisation des données : conception de modèles logiques et physiques adaptés aux besoins métiers. - Analyse et valorisation des données : réalisation de dashboards et de rapports interactifs sous Power BI. - Collaboration étroite avec les équipes métiers pour comprendre, formaliser et traduire les besoins fonctionnels en solutions techniques pertinentes. - Garantir la qualité, la fiabilité et la performance des jeux de données. - Participation à l’évolution de la plateforme data et aux bonnes pratiques de gouvernance et d’industrialisation.
Freelance
CDI

Offre d'emploi
Data analyste

Publiée le
JIRA
Microsoft Excel

1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Prestation de Data AnalyseDéfinition du besoin La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel majeur. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance des contenus jeunesses. Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existant sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Freelance

Mission freelance
Chargé d'études connaissance client - Lille

Publiée le
Gestion de projet
Marketing
Sphinx

3 ans
400-550 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste : - Réaliser un audit - Développer des tableaux de bords pour le suivi d'indicateurs - Effectuer des études ad-hoc - Mission longue durée basée en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Plusieurs années d'expérience comme chargé d'études marketing / connaissance client - Data analyse, synthèse, recommandations - Maitrise d'outils d'administration et d'analyse d'études quantitatives (Sphinx, Softconcept, ENFORM ...) - Gestion de projet - Savoir-être : rigueur, communication, esprit d'équipe ...
Freelance

Mission freelance
Data Lead (H/F)

Publiée le
Data management

1 an
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Véritable chef de projet, tu es le facilitateur de l’orchestration des sujets Data dans ton domaine métier. Tu apprécies comprendre les enjeux d’une direction métier et son environnement IT afin de proposer des solutions data adaptées et alignées avec la stratégie Data, en collaboration avec un Product Owner. Tu vas à la rencontre des utilisateurs pour comprendre, challenger et cadrer les besoins métier. Tu assumes la responsabilité d’un portefeuille de projets : rédaction, planification, pilotage et livraison. Tu pilotes et accompagnes une équipe data pluridisciplinaire : Data Analytics, Data Science, Data Engineering. Avec ton équipe, tu participes à la construction, l’évolution et l’amélioration continue des produits data, tout en contribuant à la consolidation de la plateforme data. Tu es garant de la cohérence technique et fonctionnelle de ton domaine, en collaboration avec l’ensemble de l’écosystème. Tu apportes ton soutien à ton équipe et à tous les acteurs (IT, métiers, data) de ton environnement de travail. Tu fais preuve de leadership et t’impliques sur des sujets transverses. Tu restes attentif aux enjeux de l’entreprise, à l’évolution du marché et aux avancées technologiques pour être force de proposition.
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
Big Data
CI/CD

12 mois
450-550 €
Île-de-France, France
Télétravail partiel
Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....
CDI
Freelance

Offre d'emploi
Data Engineer Azure & Databricks

Publiée le
Apache NiFi
CI/CD
Data Lake

6 mois
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
Télétravail partiel
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Freelance

Mission freelance
Tech Lead Data Engineer - Secteur Retail - IDF (H/F)

Publiée le
Apache Spark
Azure
Databricks

3 mois
520-570 €
Châtillon, Île-de-France
Télétravail partiel
Contexte du poste Rejoignez notre Centre d'Excellence Digital au sein d'une entreprise leader dans le secteur de la distribution. Basée à Chatillon, notre équipe est à la pointe de la transformation numérique, en particulier sur les projets de données et d'analytics visant à optimiser les performances commerciales de nos points de vente. Dans un contexte d'industrialisation accélérée et d'organisation agile, nous recherchons un Tech Lead Data Engineer pour renforcer notre équipe Data Lab. Votre rôle est crucial dans des projets ambitieux destinés à concevoir et déployer des produits analytiques innovants pour l'ensemble des fonctions métiers. Ce poste est à pourvoir dans une optique de prolonger notre croissance et d'accompagner notre transformation digitale. Missions Principales Missions : Assurer un leadership technique auprès des équipes de développement et coordonner les activités autour de Databricks, Spark et Azure. Conseiller et accompagner les parties prenantes dans la traduction des exigences stratégiques en solutions techniques sécurisées, scalables et fiables. Réaliser la conception technique des applications, des échanges et garantir la qualité des livrables tout en veillant à réduire la dette technique. Faire de la veille technologique et participer activement aux proof-of-concepts (POCs). Missions Annexes : Enrichir la communauté Data Engineers via le partage de connaissances. Participer aux phases de développement et aux tests des solutions.
Freelance
CDI

Offre d'emploi
DATA ANALYSTE CONTENUS JEUNESSE

Publiée le
JIRA

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l’analyse de la performance des contenus jeunesses. MISSIONS - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes. Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : - Maitrise des Piano Internet et eStat Streaming/Nielsen exigée. - Maitrise du tracking sur Web, App, et TV. - Expertise en analyse de parcours avec ContentSquare - Aisance analytique demandée, et maitrise de Power BI exigée. - Expertise en accompagnement/coaching data - Maîtrise de la mise en place de reporting et production des bilans - Capacité en gestion de projet - Maîtrise d’Excel, powerpoint , Jira, Confluence. - Maitrise du SQL nécessaire et connaissance de GCP -Maitrise de GetFeedBack – Usabilla pour la mise en place des NPS. - Connaissance de Power Automate pour automatiser certains process -Expérience dans les médias
CDI

Offre d'emploi
Senior Software Engineer – Systèmes Distribués (TypeScript / Kubernetes)

Publiée le
Go (langage)
Kubernetes
Node.js

63k-67k €
75008, Paris, Île-de-France
Télétravail partiel
Rejoignez une entreprise de pointe, leader mondial de son secteur. Afin de renforcer l'équipe R&D, nous recherchons un Ingénieur Logiciel Senior en Systèmes Distribués. Basée à Paris, l'équipe travaille sur des projets de stockage d'objets cloud à l’échelle mondiale. Missions Concevoir, développer, tester et mettre en production des solutions de stockage d'objets distribués avec TypeScript et Kubernetes. Collaborer avec des architectes, Product Owners et leads pour délivrer la roadmap produit. Développer des systèmes distribués robustes, tolérants aux pannes et performants. Participer activement à la revue de code et au partage des meilleures pratiques au sein de l'équipe. Optimiser la performance et l'observabilité des systèmes existants. Contribuer à la montée en compétences de l'équipe sur des technologies spécifiques. Environnement technique global Node.js, Golang Docker, containerd Linux, sécurité réseau Redis, Kafka, MongoDB, Zookeeper Outils CI/CD: Terraform, GitHub, Jira
Freelance

Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)

Publiée le
Data Lake
DevOps
Master Data Management (MDM)

12 mois
450-500 €
Paris, France
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Freelance
CDI

Offre d'emploi
Hybrid Cloud Engineer – Mission longue (pré embauche possible)

Publiée le
Azure

3 ans
Paris, France
Télétravail partiel
Contexte Nous recherchons, pour le compte d’un acteur international majeur, un Hybrid Cloud Engineer. La mission s’inscrit dans le cadre d’un renforcement stratégique de l’équipe Infrastructure et s’accompagne d’une perspective de pré embauche pour le consultant retenu. Environnement Ce groupe s’appuie sur une infrastructure hybride (on-premise / cloud Azure) et collabore avec des partenaires d’infogérance internationaux. Le contexte est exigeant, sécurisé, et orienté haute disponibilité et performance. Missions principales Gérer et maintenir les serveurs Windows et Linux, physiques et virtuels, garantissant leur disponibilité et leur performance. Administrer les technologies de virtualisation, notamment VMware VCF. Agir comme référent technique (SME) sur Azure IaaS, VMware et Windows Server. Superviser le patching, le hardening et la conformité sécurité des serveurs. Gérer les GPO, DNS et DFS. Collaborer avec les équipes d’infogérance pour assurer la bonne exécution des projets et changements. Participer aux projets de transformation et fournir les spécifications techniques aux équipes externes. Vérifier les conceptions et les implémentations pour garantir leur conformité aux standards du groupe. Mettre en œuvre et gérer l’Infrastructure as Code (IaC) avec Terraform et Ansible. Surveiller les performances et la santé du système via des outils de monitoring proactif. Planifier et coordonner les opérations de maintenance (patching, upgrades, PRA, etc.). Maintenir la documentation technique et procédurale. Participer aux comités de changement (CAB) et assurer les déploiements approuvés. Être disponible ponctuellement hors heures ouvrées pour les incidents critiques ou déploiements exceptionnels.
Freelance

Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public

Publiée le
Apache Spark
Hadoop

6 mois
450-500 €
La Défense, Île-de-France
Télétravail partiel
Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.
Freelance

Mission freelance
‼️URGENT ‼️ 2x Data Analyst Power BI – Industrie ‼️

Publiée le
CI/CD
Microsoft Power BI
Python

1 an
360 €
Strasbourg, Grand Est
🔍 Nous recherchons deux Data Analysts Power BI pour renforcer une équipe projet dans l’industrie. La mission est de longue durée. 📍 Strasbourg (sur site obligatoire) 📅 Démarrages : 1 ASAP + 1 en janvier 🎯 Missions : ✅ Création & optimisation de dashboards Power BI ✅ Analyse et traitement de données (Python, SQL) ✅ Contribution aux workflows Git CI/CD ✅ Échanges réguliers avec les métiers pour comprendre les besoins 👉 3 à 4 ans d’expérience en Data Analysis 👉 À l’aise en environnement industriel 👉 Force de proposition et autonomie
407 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous