Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 339 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI
Freelance

Offre d'emploi
data product owner AND supply chain H/F

5COM Consulting
Publiée le
Big Data
Supply Chain

3 ans
43k-70k €
Nanterre, Île-de-France

Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.

Freelance

Mission freelance
Big Data Tech Lead H/F

NAVIGACOM
Publiée le
Big Data
Cloud

12 mois
100-1 100 €
Yvelines, France

Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.

Freelance

Mission freelance
Expert Technique DATA

SQLI
Publiée le
Big Data

6 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la rercherche d'un expert technique en DATA. Ses impératifs : Une expérience technique forte en Data Et XP Responsable d'équipe de développement +10personnes. Une culture générale technique sur l’ensemble de la chaîne de création de valeur et de l’environnement de dev jusqu’à la prod. Une connaissance sérieuse des problématiques sécurité, performance et robustesse Stack technique du projet : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

Freelance

Mission freelance
Support Data Engineer H/F

Agate IT
Publiée le
Big Data
Python
SQL

3 ans
550-700 €
Paris, France

Description du poste : En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. Responsabilités : 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données, tels que les erreurs de chargement, les incohérences de données et les performances dégradées. Collaborer avec les équipes Data pour résoudre les problèmes techniques et d'intégration liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité des données pour garantir la précision, la cohérence et l'intégrité des données. Participer à la définition et à la mise en œuvre des normes et des bonnes pratiques de gestion de la qualité des données. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. Documenter les procédures opérationnelles et les problèmes rencontrés, ainsi que les solutions mises en œuvre, pour faciliter le support et la résolution de problèmes ultérieurs. Être proactif sur l’amélioration des process et outils. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F

LeHibou
Publiée le
Big Data

6 mois
450-600 €
Saint-Denis, Île-de-France

Notre client dans le secteur Assurance recherche un/une Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F Description de la mission: Le client est un acteur majeur du secteur de l'assurance/assistance. Fondé en 1963 et inventeur du concept d'assistance, le client soutient 300 millions de clients dans le monde entier avec des solutions adaptées à toute situation d'urgence ou de la vie quotidienne, 24/7, dans cinq secteurs d'activité : Automobile, Voyages, Santé, Famille & Domicile, et services de Conciergerie. **Description de la Mission:** En tant que consultant en data pour notre projet d'implémentation de dashboard avec Power BI et ETL Talend, vous serez responsable de comprendre les besoins métier, de traduire ces besoins en solutions de données efficaces, et de mettre en place une architecture de données robuste pour soutenir nos initiatives d'analyse. **Responsabilités:** 1. - Collaborer avec les parties prenantes métier pour comprendre leurs besoins en matière d'analyse et de reporting. - Identifier les indicateurs clés de performance (KPI) et les exigences de reporting pour chaque domaine fonctionnel. - Développer un modèle de données d'entreprise (Enterprise Data Model) qui capture les entités métier et leurs relations. - Concevoir une architecture de données comprenant un datawarehouse et des datamarts pour répondre aux besoins de reporting et d'analyse. 3. **Mise en Œuvre des Outils de Business Intelligence:** - Utiliser Power BI pour créer des dashboards interactifs et des rapports personnalisés répondant aux besoins métier. - Configurer et optimiser les ETL (Extract, Transform, Load) avec Talend pour l'ingestion des données depuis différentes sources. Gestion de Projet et Coordination: - Diriger et coordonner les activités liées à la mise en œuvre de la solution data. - Suivre les jalons du projet, gérer les risques et assurer le respect des délais et des budgets. - Expérience préalable dans la mise en œuvre de solutions BI avec Power BI et ETL avec Talend. - Solides compétences en modélisation de données et conception d'architectures de données. - Capacité à travailler de manière autonome et à gérer efficacement les priorités. - Excellentes compétences en communication et en collaboration avec les équipes métier. - Maîtrise des langages de requête SQL et des principes de gestion de bases de données. - Connaissance des bonnes pratiques en matière de gouvernance des données et de sécurité. Compétences / Qualités indispensables : Power BI, ETL talend, conception architecture de données (data warehouse & datamart), Développement d'un modèle de données (EDM), Maîtrise des langages de requête SQL et des principes de gestion de bases de données, gouvernance de données et sécurité, anglais Informations concernant le télétravail : 2 jours par semaine

CDI

Offre d'emploi
Ingénieur Data / BI H/F

ENGIT
Publiée le
BI
Big Data

10k-55k €
Toulouse, Occitanie

📊🚀 Rejoignez notre équipe en tant qu’Ingénieur(e) Data & BI ! Vous êtes un(e) passionné(e) dans le domaine de la Data et de la BI, avec une expérience de plus de 5 ans ? Vous recherchez un environnement stimulant où vous pourrez mettre en œuvre vos compétences et contribuer à des projets novateurs ? Nous vous offrons l'opportunité de rejoindre une entreprise innovante. En tant qu’Ingénieur(e) Data & BI, vos missions principales seront de : · Assurer la continuité de tous les services de reporting data (rapports, dashboards, etc.) tout en mettant en place une nouvelle architecture. · Piloter la partie Data sur un projet de migration, en combinant une approche LCM (Lifecycle Management) et des solutions innovantes. · Concevoir des solutions de migration de données en assurant un très bon niveau de conception. · Travailler dans un environnement de Business Intelligence traditionnelle avec un usage fréquent de QlikView et PowerBI. · Faire preuve d'une grande autonomie et d'une appétence à comprendre les enjeux techniques et fonctionnels de l'environnement pour proposer des solutions adaptées. · Développer une excellente capacité d'analyse, une bonne capacité de synthèse, une curiosité naturelle et une force de proposition. · Communiquer efficacement avec les différentes parties prenantes du projet et assurer une coordination optimale des activités.

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Big Data / Data - Bordeaux (33)

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

13 mois
40k-50k €
Bordeaux, Nouvelle-Aquitaine

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance
CDI

Offre d'emploi
DataOps Hadoop

KLETA
Publiée le
Big Data
Hadoop

3 ans
10k-86k €
Paris, France

Architecture et Conception : Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise. Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop. Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet. Installation et Configuration : Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques. Gérer les configurations, les mises à jour et les correctifs des composants Hadoop. Surveillance et Optimisation : Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement. Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes. Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels. Sécurité : Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop. Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc. Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées. Gestion des Données : Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données. Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données. Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées. Automatisation et Orchestration : Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc. Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop. Développement et Support : Fournir un support technique aux équipes de développement et d'analyse des données. Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop. Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop. Formation et Documentation : Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop. Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances. Veille Technologique : Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données. Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.

Freelance

Mission freelance
Tech Lead Big Data - BANQUE

ABSIS CONSEIL
Publiée le
Big Data
Développement

3 ans
600-650 €
Fontenay-sous-Bois, Île-de-France

Nous recherchons pour notre client du secteur bancaire un Tech Lead Big Data. Vous interviendrez dans le cadre d'évolution du socle technique et pour répondre à de nouveaux besoins métiers sur l'exploitation de la Data des paiements. Vous contribuerez aux développement Spark/Scala et HIVE. Une bonne expertise des environnements hadoop est nécessaire ainsi qu'un bon niveau d'anglais (environnement anglophone). Vous êtes en capacité de faire de la revue de code et du re-factoring dans un environnement Agile, de traiter un gros volume de données et d'appliquer les bonnes normes de développements. Maitrise des technologies suivantes sont requises : Hive, PostGreSQL, Python, Scala et Spark Hadoop

Freelance

Mission freelance
consultant Nexthink

Hanson Regan Limited
Publiée le
Data analysis
ITSM

7 mois
100-800 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Hanson Regan recherche actuellement un consultant Nexthink en freelance pour une entreprise française bien connue. Grâce à votre expérience en gestion de la livraison et des opérations, vous aiderez le client à assurer l'optimisation de Nexthink et serez à l'aise en tant qu'expert en la matière sur la plateforme. Le consultant Nexthink retenu devra avoir une expérience démontrable dans la gestion des livraisons, ainsi qu'une expérience de l'utilisation de Nexthink et de l'exploitation des données associées. Vous aurez une bonne connaissance du dépannage informatique, de l'analyse des données, ainsi qu'une bonne compréhension de ServiceNow ou d'outils ITSM similaires. Le travail hybride est pris en charge pour ce rôle, dans un premier temps jusqu'à fin 2024, avec un excellent potentiel d'extensions multiples. Les candidats retenus doivent être capables de travailler via leur propre entreprise française. Nous ne pouvons malheureusement pas accepter de candidats Portage pour cette mission. Si vous êtes curieux d'en savoir plus, veuillez nous contacter dans les plus brefs délais avec un CV à jour aux détails ci-dessous.

Freelance

Mission freelance
Senior Data Scientist

Phaidon London- Glocomms
Publiée le
Amazon S3
Apache Airflow
Data science

1 an
Pays de la Loire, France

En partenariat avec un leader des logiciels informatiques, je suis à la recherche de 2 Data Scientists seniors pour un contrat à long terme, se concentrant sur l’implémentation d’algorithmes utilisant des techniques diverses et variées (Deep Learning, NLP, Image Processing, Heuristics, LLM, etc.). Rôle : Data Scientist Senior Lieu : Paris Durée du contrat : Long terme Travail à distance - Visites occasionnelles au bureau de Paris/Bordeaux Date de début : ASAP Le rôle : Responsable de l’analyse et de la préparation des algorithmes de prototypes de données Travailler de manière transversale avec les autres ingénieurs de données et les équipes de développement pour mettre les algorithmes en production. Contribuer à la création de tableaux de bord pour le suivi et l’illustration des algorithmes. Présentations hebdomadaires des résultats Affiner les cas d’utilisation, l’expérience utilisateur et les méthodes d’intégration. Le candidat idéal : 6+ ans d’expérience professionnelle en tant que Data Scientist avec une expérience prouvée en Machine Learning Expérience confirmée dans la mise en production d’algorithmes de Machine Learning Expertise dans les algorithmes de Deep Learning et les architectures de pointe (par exemple Transformers) Maîtrise des langages de script - Python, Tensorflow/PyTorch Expérience avec Spark développement

CDI
Freelance

Offre d'emploi
Product Owner IA & DATA

4 Impact
Publiée le
Data analysis
Intelligence artificielle

12 mois
47k-53k €
Hauts-de-Seine, France

Nous recherchons pour l'un de nos clients un, Product Owner IA & DATA. Dans le cadre de leur stratégie Innovation, IA, le PO rejoindra les équipes Innovation IT. Les missions sont: - Participation à la construction de la stratégie digitale du métier et suivi de son implémentation. - Monitoration des initiatives Tech avec des KPI construits autour des pilliers stratégiques, en assurant leur cohérence avec la stratégie et la roadmap du métier. - Co-organisation avec l'équipe Data et Digital, les sessions du board business tech. - Représentation AM au sein des comités digitaux et nouvelles technologies du Groupe - Faites profiter AM de ces collaborations, outils, processus et retours d'expériences. - Proposition de nouvelles solutions qui intègrent les technologies du moment - Contribution de la veille Technologique et innovation. - Communiquez et conseillez le COMEX sur des sujets de pointe technologique tel que le Web3, Open et Emdedded Finance, Quantic Computing… - Mise en place et participez à des hackathons, en lien avec l'équipe innovation métier

Freelance

Mission freelance
Directeur de programme transformation H/F

NAVIGACOM
Publiée le
Big Data
Data Center
Virtualisation

12 mois
100-850 €
Yvelines, France

Missions Pour l’un de nos clients du secteur bancaire, vous intervenez sur des missions à forte valeur ajoutée en tant que Directeur de programme. Le Directeur de Programme sera chargé d'encadrer les experts du département, de diriger les transformations applicatives, de décider de la conformité aux standards du groupe et de piloter les activités liées aux réseaux datacenter, à l'infrastructure (on-premises, cloud, virtualisation…) et à l’environnement data. Il devra également gérer les équipes au quotidien, définir les migrations, conduire la gestion du changement et réaliser/diriger le programme de transformation. Vos tâches seront les suivantes : Encadrer les experts techniques du département "Grande Clientèle". Diriger les transformations applicatives lorsqu'elles sont nécessaires. Prendre des décisions concernant la conformité aux standards du groupe lors des transformations. Piloter les activités liées aux réseaux datacenter, à l'infrastructure et à la plateforme data. Gérer les équipes au quotidien et assurer le suivi des projets. Définir les migrations vers les nouvelles infrastructures et les nouvelles technologies. Conduire la gestion du changement pour assurer une transition fluide. Réaliser ou diriger le programme de transformation, en assurant le respect des délais et des objectifs. Collaborer étroitement avec les équipes locales et les parties prenantes pour garantir le succès du projet.

CDI

Offre d'emploi
Administrateur Systèmes LINUX H/F

GROUPE ARTEMYS
Publiée le
Ansible
Apache Tomcat
Linux

34k-38k €
Louviers, Normandie

Titre du poste Administrateur Systèmes Linux H/F (CDI). Localisation : Louviers (27) Fourchette de salaire : Entre 34 et 38K€ selon expérience. Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis). Alors, vous nous rejoignez ?! Votre maîtrise de l’environnement de production et des systèmes Linux vont vous permettre de prendre en charge l’administration de l’infrastructure en toute autonomie De belles missions vous attendent chez notre client sur des environnements riches et challengeants : · Gestion et administration des environnements de production Linux, infrastructures et applications. · Traitement des incidents de niveau 3 · Participation active dans le cadre des projets d’évolutions techniques, · Création de scripts d’installation sur les serveurs d’application, · Automatisation et intégration continue avec Jenkins · Optimiser la performance systèmes et applicatifs · Participation aux phases de validation technique lors des mises en production, · Rédaction de documentations techniques et procédures d’exploitation

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous