Trouvez votre prochaine offre d’emploi ou de mission freelance Google Dashboard

Votre recherche renvoie 113 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur Cloud & DevSecOps

CyberTee
Publiée le
Ansible
Azure
Cloud

12 mois
100-650 €
Paris, France

Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Ingénieur Cloud & DevSecOps senior . Ses missions : déployer et migrer solutions Industrialiser et automatiser (CI/CD) Sécurité dans les déploiements (tests de code source) Aide à la définition d'architectures Cloud complexes avec un haut niveau de disponibilité et de sécurité Réaliser des mises en production Mise en œuvre de la sécurité opérationnelle Animation d'ateliers techniques Profil recherché : Vision Infrastructure as a Code » et CI/CD Bon niveau d'anglais Approches micro-services et containers Compétences techniques souhaitées Google Cloud Platform et/ou Microsoft Azure (Iaas, PaaS), Packer, Docker, Ansible, Kubernetes et CI/CD (Jenkins, GitLab, ...)

Freelance
CDI

Offre d'emploi
DataOps

K-Lagan
Publiée le
Google Cloud Platform
Terraform

1 an
10k-48k €
Niort, Nouvelle-Aquitaine

Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) DataOps , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients du secteur assurances, basé en Nouvelle-Aquitaine, Niort. 💻 Technologies : DevOps, CI/CD, Terraform, GCP. 😉 Conditions : 📝 CDI, ASAP. 📍 Niort, Nouvelle-Aquitaine (France). 💰 Rémunération et conditions intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et d'une société international en évolution ! 🎓 Formations personnalisées et suivies de carrières. 💻 Télétravail (mi-temps) 2-3 jours possible, selon intégration et projet client. 👌 Nous offrons : 🤝Contrat à durée indéterminée. 🤝Teambuilding. 🤝Rtt. 🤝Événements festifs organisés par l'entreprise (repas d'été, repas de Noël, journée de solidarité, BBQ, cafés technologiques …). 🤝Suivi régulier. 🤝Formation (technologie, langues, cours de formation, certifications...). Chez K-LAGAN & Kereon, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿

Freelance

Mission freelance
Data engineer PYTHON / GCP

LK TECHNOLOGY
Publiée le
Google Cloud Platform
Python

6 mois
100-450 €
Lille, Hauts-de-France

Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.

Freelance

Mission freelance
Data Engineer GCP Scala Spark

DATSUP
Publiée le
Apache Spark
Google Cloud Platform
Scala

12 mois
100-600 €
Île-de-France, France

Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

Freelance

Mission freelance
Data Engineer

Enterprise Digital Resources Ltd
Publiée le
CI/CD
Docker
FastAPI

7 mois
100-480 €
Hauts-de-France, France

Dans le cadre de la plateforme de chaîne d’approvisionnement numérique du client, nous sommes responsables d’un service d’apprentissage automatique en production dans 6 BU pour l’instant. L’objectif de ce produit est d’optimiser les contrôles de réception des commandes en ciblant les colis / palettes à auditer à l’entrée des sites logistiques. Le projet est divisé en 2 modules techniques : une API qui délivre une décision de contrôle, basée sur notre algorithme, à tous les consommateurs du système informatique (WMS), un ensemble de pipelines de données provenant de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce magasin de fonctionnalités est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Nous recherchons un/une Data Engineer pour développer et maintenir ces deux modules. Responsabilités : En tant qu’ingénieur de données, vos responsabilités sont les suivantes : ● Travailler avec l’équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. ● Travailler avec des techniques Agile et DevOps et des approches de mise en œuvre dans la livraison ● Concevoir et documenter des modèles de données qui soutiennent les produits IA ● Orchestrez des pipelines de données ● Gérer et être responsable de la qualité des données ● Concevoir et documenter l’API qui prend en charge les produits IA ● Travailler en étroite collaboration avec les data scientists, les ingénieurs ML, DevOps/SRE

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
API
CI/CD
Docker

12 mois
100-500 €
Nord, France

API Python Data Pipeline DBT Documentation Compétences techniques Python - Expert - Impératif DBT - Confirmé - Impératif Github - Confirmé - Impératif Terraform - Confirmé - Souhaitable Anglais Professionnel (Impératif) The aim of this product is to optimise order reception checks by targeting the parcels/pallets to be audited at the logistics sites's entrance. The project is divided into 2 technical modules: - an API that delivers a control decision, based on our algorithm, to all consumers from ADEO IT system (WMS), - a set of data pipelines sourced from BigQuery datasets, supplying a feature store. This feature store is then used by our API and to train our predictive model. We are looking for a Data Engineer to develop and maintain these two modules. Responsibilities : As a data Engineer, your responsibilities are the following : ● Work with the dev team to design and implement modern, scalable data solutions using a range of new and emerging technologies. ● Work with Agile and DevOps techniques and implementation approaches in the delivery ● Design and document data models that support AI products ● Orchestrate data pipelines ● Manage & responsible of data quality ● Design and document API that supports AI products ● Work closely with data scientists, ML engineer, DevOps/SRE Qualifications : ● Experience working with GCP ● Experience in Python development ● Experience in API development. Good knowledge of FastAPI is required. ● Experience in Docker. ● Experience in data pipeline orchestration. Good knowledge of DBT. ● Experience in CI/CD. Knowledge of Github & Github actions is required. ● Fluency in english is required

Freelance

Mission freelance
SecOps

ESENCA (groupe Kali)
Publiée le
Ansible
Azure
Google Cloud Platform

3 mois
400-480 €
Lille, Hauts-de-France

En tant que SecOps, vous ferez partie des équipes IT qui ont pour mission de faire évoluer le modèle IT et bâtir les écosystèmes digitaux utiles et modulaires du groupe. En tant que SecOps DIT, vous intégrerez le domaine Hosting avec pour objectif de porter le développement du groupe en simplifiant la sécurité dans les services digitaux, mais également en proposant des solutions permettant de réduire la dette. Vous serez également en charge de traiter les incidents de sécurité, mais également de l'accompagnement des équipes Network, DevOps et Réseaux en apportant votre vision et votre expertise technique. Vos missions principales seront: - Mettre en place une solution permettant de réduire le nombre de faille de sécurité, - Participer à la construction de la roadmap des évolutions techniques en prenant en compte les contraintes et les opportunités, - Vous proposerez des solutions techniques en adéquation avec le besoin des équipes, - Vous participez au cadrage et à la rédaction des dossier d'architecture techniques, - Vous participez à l'industrialisation des opérations (prise en compte des incident rencontrés afin de continuellement améliorer la qualité de service), - Vous accompagnez la montée en compétences des équipes, - Vous participez au run transverse des solutions, - Vous participez au tests des solutions SOC Environnement technique: - Azure, GCP, Oracle Cloud, OVH - EDR - Proxy - Linux, Windows - Produits de monitoring - Astreintes

Freelance
CDI

Offre d'emploi
Product Owner Data

VISIAN
Publiée le
Google Cloud Platform
Microsoft Power BI
MySQL

1 an
10k-60k €
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory du client œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques. - Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: - Recueil du besoin auprès des utilisateurs - Entretiens individuels - Workshop - Ateliers de conception détaillée avec les différentes parties prenante - Définition des KPI pour la réalisation des dashboards - Déclinaisons des parcours et rédaction des users stories - Respect de la méthode INVEST - Utilisation de l'outil JIRA - Gestion du backlog de produits et définition des exigences du produit - Planification et priorisation des fonctionnalités du produit - Coordination des équipes de développement et suivi de l'avancement du projet - Acculturer les métiers autour des enjeux de la data et de l'IA - Validation et acceptation des fonctionnalités développées - Réalisation de la recette et des tests fonctionnels en collaboration avec le métier - Participation aux réunions de planification, de rétrospective et de revue de sprint - Production de supports de communication Environnement technique : PowerBI, Python, GCP et ses services, SQL, IA / NLP

Freelance

Mission freelance
Service Delivery Manager

LeHibou
Publiée le
Azure
Google Cloud Platform
SQL

1 an
500-700 €
Clichy, Île-de-France

Le client est le leader mondial des cosmétiques, avec des marques innovantes et accessibles pour tous. Au sein de l'équipe Consumer le client recherche une expertise SDM afin de gérer la maintenance en condition opérationnelle et les évolutions techniques et fonctionnelles d'une application permettant la planification et la gestion des dépenses média. Cette application est identifiée comme une des applications prioritaires du groupe. Utilisée dans plus de 40 pays et intégrée avec plus de 15 plateformes SAP. Elle est utilisée par plus de 3000 personnes (responsables média ou agences média). Elle est développée et développée par l'éditeur. Missions attendues : - Coordination avec le chef de projet/PO de l'application. En charge des évolutions et de la maintenance en condition opérationnelle d'une application fortement intégrée dans l'écosystème du client (ERP SAP ECC, SAP4HANA, Middleware, GCP, Azure...). - Responsable de l'organisation des travaux de maintenance, développements et évolutions du SI avec l'éditeur, les métiers et l'ensemble des applications connectées. Les évolutions peuvent être techniques (ex. optimisation des performances, mise en place d'API, gestion des archives) ou fonctionnelles (ex. mise en place SSO, changement de norme média, optimisation UX). Tâches à réaliser : * Assurer la coordination et l'orchestration des actions des différentes équipes * Animer les hebdomadaires de l'équipe et suivre le backlog d'activité * Echanger avec l'équipe de partenaires afin de comprendre et de challenger les solutions proposées. * définir et rédiger le cahier de tests pour un livrable technique et/ou fonctionnel de l'application * Organiser, contribuer et valider les tests avec les parties prenantes. * Suivre les KPI et mettre en place les actions nécessaires avec l'éditeur pour respecter les SLA * Gérer les tickets L3 (incidents, problèmes) avec l'équipe support de l'éditeur * Contribuer à l'identification des améliorations, solutions avec les Différentes équipes de l'écosystème (intégration, référentiels, SAP). Assurer le respect des règles de fonctionnement et d'utilisation du SI en conformité avec les normes et standards du métier et de l'entreprise, et en accord avec les contrats de service définis (interopérabilité, sécurité, coûts, qualité). Livrables : * Post mortem des incidents (analyse, statut, reporting) * Documentation de la solution, des améliorations, des développements (analyse d'impacts et évaluation de la charge) * Rédiger les comptes rendus des réunions * Définition des chronogrammes, tests, plan de coordination des différentes équipes * Assurer la documentation du projet avec l'éditeur et les équipes des autres solutions (spécifications, cahier de tests, chronogramme, release note, manuel utilisateurs, descriptions produits /services/composants, ...) * Gestion de la communication orale et écrite avec les utilisateurs (Product Owner, utilisateurs finaux dans les zones et les pays).

Freelance
CDI

Offre d'emploi
Consultant(e) Cloud Security - Risk Manager

AMD Blue
Publiée le
Cybersécurité
EBIOS RM
Google Cloud Platform

3 ans
60k-75k €
Paris, France

Contexte de la mission : Notre client a mis en place en 2020 une Cloud Platform Engineering afin de construire des fondations solides pour ses divers services digitaux. La plateforme cloud est transverse à l’ensemble des domaines et pays du groupe. Elle est constituée d’équipes centrées sur l’Expérience du Développeur, la mise à disposition de solutions techniques pour accélérer le développement et la stabilité/scalabilité de nos applications, les Réseaux, l’Observabilité, le FinOps. Ses objectifs principaux sont de rationaliser le catalogue de produits techniques référencés au sein du groupe et de fournir des services “clé en main” pour les équipes applicatives, qui pourront ainsi se concentrer sur le développement de features à valeur ajoutée. Le fait d’avoir moins d’outils va permettre de mettre plus de monde sur chacun et d’approfondir l’usage de ceux-ci. Il sera aussi plus simple de basculer d’équipe en équipe grâce à des compétences communes. Les missions sont : · Définir la stratégie d’analyse de risques de nos composants d’infrastructures · Accompagner les Security Engineers du domaine dans la réalisation d’analyse de risque basé sur Ebios RM (définition de la démarche incluant les livrables et les ateliers nécessaires, définition des templates d’analyses de risque, définition des plans de remédiations) · Proposer une solution de définition d’une risk heat map du domaine de la plateforme cloud basé sur les remontées des analyses de risques ainsi que des audits et test d’intrusion · Définir la stratégie DRPs des composants d’infrastructures (définir les étapes de réalisation d’un DRP global, définir une roadmap d’implémentation de cette stratégie, définir les templates de DRP et de test DRP) · Animer la planification trimestrielle du domaine afin d’identifier l’ensemble des actions de remédiations à charger par chacune des équipes · Construire et jouer un exercice de gestion de crise du domaine · Animez la définition et la communication des politiques de sécurité; · Proposer et animer un processus de gestion des incidents de sécurité; · Animer le suivie des actions de sécurité · Portez la sensibilisation sécurité, risque et conformité au sein de votre périmètre, et favorisez les bonnes pratiques au sein du collectif sécurité de votre BU;

Freelance

Mission freelance
DevSecOps Remediation Manager

Neotrust
Publiée le
.NET
Android studio
Ansible

12 mois
600-750 €
Hauts-de-France, France

Neotrust est une société d'innovation en matière de sécurité qui aide les dirigeants, CISO, CIO et CTO à mener à bien leur transformation en matière de sécurité et à intégrer la cyber innovation dans leur stratégie de sécurité à long terme. Un grand client avec une empreinte internationale recherche un DevSecOps Remediation Manager . Il/elle sera est chargé(e) de gérer et d'accompagner les équipes métiers dans la remédiation des vulnérabilités applicatives (AppSec) dans un contexte où la Cybersécurité est nommée comme une composante obligatoire du système d'information.

Freelance

Mission freelance
Chef de Projet Data Warehouse

KOLABS Group
Publiée le
Architecture
BI
Google Cloud Platform

12 mois
100-850 €
Paris, France

Nous recherchons un Chef de Projet Data Warehouse pour rejoindre notre client dans le cadre d'un projet SIRH ambitieux visant à implémenter une data platform utilisant Power BI. Ce projet a pour objectif de permettre une communication fluide entre différentes entités, en offrant une vision globale et intégrée des données RH (performance, rémunération, recrutement,..) à travers des dashboards communs. Vos missions : Identifier et prioriser les sujets techniques avec les parties prenantes du projet Encadrer les aspects techniques et architecturaux, en assurant l'intégration et le transfert de données avec les équipes IT Animer des ateliers avec les parties prenantes métiers, IT, et la squad agile Suivre les développements pour garantir leur alignement avec les besoins Agir en tant que référent IT pour le projet, couvrant l'écosystème SIRH et les autres projets au sein de l'équipe IT RH

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Freelance

Mission freelance
DevSecOps Manager (M/F)

Enterprise Digital Resources Ltd
Publiée le
.NET
Android studio
Ansible

31 mois
280-630 €
Hauts-de-France, France

Vous serez responsable de la gestion et du soutien des équipes commerciales dans la correction des vulnérabilités des applications (AppSec) Le Responsable de la Remédiation sera en charge au niveau DevOps / AppSec de : Contribuer à la conception de l’architecture de l’application (expert en cybersécurité) Embarquer et animer l’équipe produit sur les tests de sécurité Soutenir les clients pour intégrer la sécurité dès le début de leurs projets Conception et livraison de sessions de sensibilisation/formation dédiées à la cybersécurité Former et sensibiliser les équipes de développement et les utilisateurs finaux aux bonnes pratiques de sécurité (Cyber par Design) Identifier, évaluer et corriger les vulnérabilités des applications Soutien pour la correction des vulnérabilités et aide à la capitalisation au niveau de l’entreprise Contribuer à l’amélioration continue de l’offre DevSecOps et à la mise en œuvre de nouvelles activités DevSecOps Soutenir et collaborer avec les équipes produit Définir les bonnes pratiques de développement Examiner les User Stories Effectuer l’analyse des risques du produit Donner aux équipes produit le pouvoir de déclencher des audits de sécurité Outils disponibles pour l’équipe produit et procédures associées (SAST, DAST, SCA, scan de dépôt, etc.). Déterminer les impacts de l’action de remédiation sur le produit État d’avancement sur le précédent plan d’action de sécurité et priorités Déploiement, configuration fonctionnelle, réglage fin des outils, automatisation, centralisation des résultats Définition des indicateurs de cybersécurité (prérequis : réglage fin) Contribuer de manière significative à l’amélioration de ces indicateurs pour démontrer la valeur de l’approche d’un point de vue sécurité

Freelance

Mission freelance
Business Analyst RPA (Robotic Process Automation)

Enterprise Digital Resources Ltd
Publiée le
AMOA
Apache Kafka
API

3 mois
100-500 €
Hauts-de-France, France

En tant qu'Analyste Métier RPA et Process Mining, vous serez responsable de l'identification, de l'analyse et de l'optimisation des processus métier de l'entreprise, en particulier avec la plateforme UiPath. Vous travaillerez en étroite collaboration avec les équipes métier, les développeurs RPA, les experts en Process Mining et les gestionnaires de projet pour concevoir, développer et déployer des solutions RPA et Process Mining efficaces qui améliorent l'efficacité opérationnelle et la productivité de l'entreprise. Responsabilités : Analyser les processus métier existants pour identifier les opportunités d'automatisation et d'optimisation. Collaborer avec les équipes métier pour comprendre leurs besoins et leurs objectifs, et traduire ces besoins en solutions RPA. Concevoir et documenter les solutions, en incluant la modélisation des processus, la conception des robots, et la création des workflows. Tester et assurer la qualité et la fiabilité des solutions. Fournir un soutien technique aux équipes métier et aux utilisateurs finaux, en répondant aux questions, en résolvant les problèmes. Collaborer avec les développeurs RPA pour intégrer les solutions automatisées avec d'autres systèmes et technologies de l'entreprise. Suivre les performances des solutions RPA déployées, en identifiant les opportunités d'amélioration continue et en proposant des ajustements et des mises à jour au besoin. Assurer une communication transparente et efficace avec toutes les parties prenantes impliquées dans les initiatives d'automatisation RPA.

113 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous