Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 686 résultats.
CDI
Freelance

Offre d'emploi
Data web analyst

Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Freelance

Mission freelance
POT8816 - Un Data Engineer sur Clermont-ferrand

Publiée le
Google Cloud Platform (GCP)

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Télétravail partiel
● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery (Oracle est un plus) ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Exploration et extraction des données : rédaction et optimisation de requêtes SQL complexes, automatisation des traitements analytiques pour des performances accrues. ● Création et optimisation de dashboards interactifs sous Looker Studio, avec une capacité à identifier et suivre des KPIs critiques pour le pilotage métier. ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement. ● Esprit d’analyse et appétence pour le fonctionnel, capacité à appréhender rapidement des logiques métier complexes
Freelance
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
Apache Airflow
DBT
DevOps

12 mois
40k-48k €
370-420 €
Cesson-Sévigné, Bretagne
Télétravail partiel
Contexte de la mission : Dans le cadre des travaux à réaliser nous recherchons un profil Data Engineer GCP confirmé. Tâches à réaliser : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM) Compétences recherchées : Obligatoires : GCP DBT Big Query Devops Optionnelles : DataStage Expérience nécessaire : 5 années d’expérience sur la plateforme GCP (profil ITS : P22/P23) Langues : Français
Freelance

Mission freelance
Data Analyst / Expert PowerBI Senior (F/H)

Publiée le

1 an
400-550 €
Moissy-Cramayel, Île-de-France
Télétravail partiel
Data Analyst / Expert PowerBI - Freelance - Moissy-Cramayel - 400-550€/jour Contexte : Nous recherchons un Data Analyst Power BI pour une mission d’environ trois mois et demi. L’objectif est de développer et d’améliorer plusieurs outils de pilotage et d’analyse de données dans un contexte industriel complexe. Missions : Concevoir et mettre à jour des tableaux de bord Power BI à partir de données issues de différents systèmes internes. Structurer, fiabiliser et analyser des volumes importants de données afin d’identifier des tendances, alertes et axes d’amélioration. Mettre en place des courbes d’évolution, simulations et indicateurs personnalisés. Reprendre et corriger des tableaux de bord existants afin d’assurer la cohérence entre données sources et résultats affichés. Préparer des livrables clairs et documentés pour faciliter l’exploitation et la maintenance des outils développés. Collaborer avec les équipes métiers pour comprendre les besoins, recueillir les retours et ajuster les outils en conséquence. Compétences requises : Maîtrise avancée de Power BI : modélisation de données, mesures, visuels, automatisation, gestion de filtres. Solide expérience en traitement et structuration de données multidimensionnelles. Capacité à analyser des données techniques, détecter des signaux faibles et produire des indicateurs pertinents. Aisance dans la mise en forme de rapports et la présentation de résultats. Rigueur, autonomie, sens du détail et capacité à travailler avec des interlocuteurs variés.
CDI
Freelance

Offre d'emploi
Data Analyst - PowerBI

Publiée le
Conception
ETL (Extract-transform-load)
Microsoft Power BI

1 an
40k-45k €
300-500 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst expérimenté pour intervenir sur la conception, le développement et l’industrialisation de dashboards Power BI destinés à des équipes internes. La mission couvre l’ensemble de la chaîne data : recueil des besoins, récupération et intégration des données, modélisation, alimentation de l’entrepôt de données, création de tableaux de bord, livraison et support aux utilisateurs. Vous participerez également à l’administration de l’environnement Power BI et au suivi des activités dans un outil de ticketing. Vous interviendrez sur des données liées au support informatique et aux cycles de vie des incidents. Le rôle nécessite une excellente maîtrise de SQL, Power BI et SSIS, ainsi qu’un esprit analytique, une rigueur forte et une réelle capacité de communication. Compétences techniques SQL – Expert Power BI – Expert SSIS – Confirmé / Important PL/SQL ETL Environnements On-Premise (pas d’Azure / pas de Data Factory) Conception et modélisation de données Intégration de données dans un entrepôt Conception de bases agrégées
CDI

Offre d'emploi
Ingénieur Support N3/N4

Publiée le
Google Cloud Platform (GCP)
Linux
OS Windows

40k-50k €
Lille, Hauts-de-France
Télétravail partiel
🌟 Pixie Services cherche à renforcer son équipe avec un Ingénieur Support N3/N4 expérimenté ! 🌟 Rejoignez notre équipe dynamique dans la métropole lilloise et devenez un pilier de notre support technique de haut niveau. À propos : Au cœur de la métropole lilloise , Pixie Services incarne l'innovation et l'excellence dans le domaine des solutions technologiques. Nous nous engageons à fournir un environnement de travail stimulant où chaque membre de l'équipe peut s'épanouir et contribuer activement à notre succès commun. 🔥 Ce que nous offrons : Une opportunité unique de travailler sur des problématiques techniques complexes et variées, apportant des solutions innovantes. Un rôle crucial au sein d'une équipe de support réputée pour sa réactivité et son expertise technique. Une position basée dans la vibrant métropole lilloise , au sein d'une entreprise pionnière dans son domaine. 🔧 Missions pour l'Ingénieur Support N3/N4 : Résolution de problèmes complexes : Prendre en charge et résoudre les incidents techniques de niveau 3 et 4, nécessitant une expertise approfondie. Amélioration continue : Contribuer à l'amélioration des processus et des outils de support pour optimiser la qualité et l'efficacité du service. Collaboration technique : Travailler en étroite collaboration avec les équipes d'ingénierie et de développement pour identifier et résoudre les problématiques systèmes et réseaux. Documentation et formation : Rédiger des documentations techniques détaillées et former les équipes de support de niveaux inférieurs pour améliorer leurs compétences. Veille technologique : Se tenir informé des dernières tendances et technologies pour anticiper les problèmes et proposer des solutions innovantes.
Freelance

Mission freelance
Devops AWS / GCP

Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
370-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un OPS Cloud Public / DevOps confirmé pour intervenir sur le cycle de vie applicatif, l’exploitation Cloud (AWS/GCP), la CI/CD, l’observabilité et la gestion des incidents/changes. Missions principales : Création & gestion de ressources natives Kubernetes / Cloud Accompagnement des équipes applicatives à l’usage des outils DevOps Bon accostage Dev → Cloud public via CI/CD (GitLab, Artifactory, Vault…) Définition des flux de logs, automatisation des tests & prérequis d’exploitation Mise en place de tests de sécurité (images, vulnérabilités, intrusion) Construction de l’observabilité, supervision & alerting (GCP/AWS) Provisionnement & déploiement IaC (Terraform, KCC) Gestion des changements : Prise en charge des requêtes ServiceNow jusqu’à clôture Analyse d’impact, préparation & autorisation des changements Contribution aux devis projets & respect des normes de production Coordination mise en production, validation DTA, supervision, consignes Incidents & problèmes : Gestion complète des incidents & communication client Coordination restauration service / SLA Production post-mortem + suivi plan d’actions Analyse des causes racines & actions pérennes Configuration & reporting : Gestion CMDB (CI) Reporting opérationnel & contribution aux comités Mise à jour documentation, DEX, DTA, référentiels
Freelance

Mission freelance
Développeur Python/vuejs

Publiée le
Google Cloud Platform (GCP)
Python
Vue.js

1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Le/La Software Engineer - Full stack contribuera au développement et à la maintenance de nos solutions logicielles réseau. Responsabilités Développement : - Concevoir l'architecture de composants backend et frontend - Participer au développement de nouvelles fonctionnalités pour nos produits logiciels. - Rédiger du code propre, efficace, testé et bien documenté. - Réaliser de revues de conception et de code - Participer à la définition de la stratégie et des objectifs de l'équipe en matière de software - Corriger les bugs et les anomalies. - Assister les équipes techniques et les clients en cas de problèmes. Projets spécifiques à court terme: - Développement sur notre outil de gestion des flux firewalls - Automatisation d'autres tâches réseau Note: Une très forte expertise technique est attendue
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
Chef de Projet Data Science (H/F)

Publiée le
BigQuery
Data science
Gestion de projet

210 jours
610-800 €
Île-de-France, France
Télétravail partiel
Un grand groupe français du secteur des médias et du numérique recherche un Chef de Projet Data Science senior pour coordonner les initiatives data entre équipes techniques et directions métiers, afin de maximiser l'exploitation de la donnée comme levier de croissance. Missions principales : Assurer la cohérence entre les pôles Data (Technique, Intelligence, Management, Gouvernance) Être le point d'entrée pour les directions métiers (Produit, Editorial, Marketing, Publicité) Recueillir et formaliser les besoins data Animer ateliers et instances projets Produire le reporting et suivre les avancées
Freelance

Mission freelance
Développeur C++ / Grid Computing & Cloud

Publiée le
Google Cloud Platform (GCP)
Kubernetes
Openshift

3 ans
400-600 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, tr Pour l’un de nos clients grand compte, acteur majeur du secteur financier, nous recherchons un Développeur C++ spécialisé en Grid Computing et Cloud Services . Missions principales Développer et maintenir des applications en C++ dans un contexte de calcul distribué (Grid). Contribuer à l’optimisation des performances : parallélisation, HPC, tuning, troubleshooting . Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards Participer à la conception et à l’évolution de l’architecture Grid/Cloud. Intégrer et déployer des services dans des environnements Cloud (GCP, Qarnot) et conteneurisés ( Kubernetes / OpenShift ). Travailler sur l’amélioration continue des pipelines CI/CD (Git, Jenkins, DevOps XLR/XLD). Collaborer avec les équipes métier pour la compréhension des besoins financiers et des modèles de valorisation. Contribuer à la qualité du code, à la documentation et au respect des standards internes
Freelance

Mission freelance
Data analyst Power BI / Cognos Orleans. 2 jours de TT.

Publiée le
Cognos
Microsoft Power BI

12 mois
400-450 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Data analyst Power BI / Cognos Orleans. 2 jours de TT. Environnement technique : Microsoft Power BI Desktop, Report server IBM COGNOS Analytics C11. Base de données : HP Vertica 10.1. Description du poste : Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Autour de Power BI : être le point de contact technique des utilisateurs finaux ou des réalisateurs de Power BI Desktop, réalisation de reporting complexes Conception et implémentation de Datamarts Autour de COGNOS : analyse d’expression de besoin, création et évolution de rapport / Conception de pack Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. Connaissances organisationnelles : Suivi de projet en tant que contributeur MOE Relation avec un infogérant Relation avec des équipes sécurité / réseau /etc. Connaissances techniques : Le profil recherché doit maitriser les solutions techniques suivantes : Power BI Desktop / Power BI Report Server / DAX / RLS - expérience : 2 années minimum Modélisation de données : constitution de datamart - expérience : 4 années minimum COGNOS C11 : conception de rapport - expérience : 1 années minimum COGNOS C11 : framework - expérience : 1 années minimum Optimisation SQL - expérience : 4 années minimum Idéalement des connaissances sur l’administration fonctionnelle ou technique d’une plateforme Power BI Report server (on premise) Il faut la double compétence Power Bi / Cognos et un très bon relationnel.
Freelance
CDI

Offre d'emploi
Chef de projet Data

Publiée le
BigQuery
Data quality
Gestion de projet

6 mois
Île-de-France, France
Télétravail partiel
La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : Maximiser la collecte de données tout en respectant les réglementations en vigueur Développer la connaissance et l’expérience utilisateur Mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’assurer la coordination de l’ensemble de cas d’usages transverses aux pôles Data. Prestations attendues : En interaction avec l’ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité….) , la prestation consistera à : La Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Mangement, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au mangement le suivi de ces sujets transverses Gestion de la coordination inter Data : point d’entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d’assurer la promotion des travaux Expertises demandées pour la réalisation de la prestation : Expériences d’au moins 8 ans en tant que Chef de projet data Expériences d’analyse des données sur un environnement GCP Expériences sur SQL/Big Query Expériences sur les principaux métiers de la data : Collecte, tracking, Dashboard, analyses, personnalisation, data science Expériences sur des données digitales sur l’outil Piano Analytics Capacité à fédérer, coordonner des projets transverses, mener plusieurs sujets en même temps Capacité à synthétiser, et présenter des résultats à des interlocuteurs ayant des niveaux de maturité data différent
Freelance

Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
2686 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous