Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 804 résultats.
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
CDI

Offre d'emploi
Ingénieur de production Devops AWS / GCP (H/F)

Publiée le

Paris, France
Nous recherchons pour notre client, un Ingénieur de production Devops AWS / GCP (H/F), pour intervenir sur Paris. Vous interviendrez au sein de l'équipe support applicatif en charge des applications métiers RH et Communication pour le compte de notre client.Ce poste clé s'inscrit dans un contexte de nouveaux projets métiers et techniques et requiert un haut niveau de maîtrise technique, notamment sur des environnements cloud (AWS / GCP) et DevOps. A ce titre vos missions principales seront les suivantes: - Assurer le support applicatif (incidents, MCO) des applications métiers. - Participer aux projets techniques (migration, refresh, déploiement de nouvelles applications...). - Intégrer des outils DevOps (XLDeploy, XLRelease) aux applications du périmètre. - Collaborer avec les équipes développement et infrastructure, en interaction régulière avec des interlocuteurs internationaux (équipe basée à Porto). - Travailler dans un environnement Windows / Linux avec des outils de scheduling comme Control-M. - Participer au dispositif d'astreinte et à des opérations en HPO. De formation Bac+3 en informatique ou expérience significative dans un poste équivalent. Vous justifiez de minimum 5ans d'expérience sur un poste similaire, Niveau N2/N3 en environnement de production. Vous possédez les compétences techniques suivantes: AWS / GCP (impératif)DevOps (intégration, automatisation, CI/CD)Systèmes Windows / LinuxScripting & Control-M Anglais Courant obligatoire (environnement international).
CDI

Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)

Publiée le
API REST
BigQuery
Microsoft Power BI

40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Freelance

Mission freelance
Développeur Python

Publiée le
GenAI
Google Cloud Platform (GCP)
Python

3 mois
400-430 €
Lille, Hauts-de-France
Télétravail partiel
OBJET DE LA MISSION : Nous recherchons un développeur expérimenté passionné par l'IA qui rejoindra une équipe agile (3 devs, 1 PO) et travaillera en collaboration avec nos experts Data et Ops. Au delà des compétences techniques, ce développeur doit être curieux car l'écosystème GenAI change chaque semaine. Veille technique et expérimentation de nouvelles approches sont nécessaires. De plus, nous attendons de la pro-activité et de la débrouillardise. En résumé, son rôle est de développer, industrialiser et maintenir la couche backend qui propulse nos agents virtuels: - Développement Applicatif & Architecture : Concevoir et développer les microservices en Python qui orchestrent les conversations. Nous attendons du code propre, testé et maintenable. - Intégration GenAI (LLM) : Implémenter et optimiser les workflows d'IA Générative utilisant les modèles Google Gemini. Vous travaillerez sur la construction des prompts, la gestion du contexte et la récupération d'information (RAG). - Qualité & Évaluation IA : Mettre en place des pipelines d'évaluation automatique des réponses du LLM (LLM-as-a-judge, métriques de pertinence) pour garantir la fiabilité du bot en production. - Observabilité & Run : S'assurer que ce que vous codez tient la charge. Vous serez responsable de l'instrumentation de votre code (via Datadog) pour monitorer les latences, les coûts de tokens et les erreurs en temps réel. - DevOps Culture : Gérer vos déploiements et votre infrastructure sur Google Cloud Platform (GCP) et utiliser les incontournables Git, CI/CD, tests unitaires L'usage de l'anglais est indispensable pour cela. DEMARRAGE : Dès janvier 2025. Travail en présentiel 2 jours par semaine (mercredi et vendredi).
CDI
Freelance

Offre d'emploi
Architecte Cloud GCP (H/F)

Publiée le
CI/CD
Git
IAM

24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
concepteur developpeur - Développer notre chaine d'intégration comptable

Publiée le
Google Cloud Platform (GCP)
Java
Node.js

12 mois
400-490 €
Lille, Hauts-de-France
Télétravail partiel
Programmes de transformation et d'enrichissement de données Tests unitaires Spécifications techniques Compétences techniques Java - Expert - Impératif NodeJS - Expert - Impératif SQL - Expert - Impératif GCP - Expert - Impératif Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Description actuelle du projet Dans le programme , plusieurs composants majeurs interviennent la chaîne d'intégration des données : - L'interpréteur comptable : Il est utilisé pour transformer, valider et enrichir les fichiers de données afin qu'ils soient envoyés dans la chaîne d’intégration - Un ETL : permet de transporter et convertir les fichiers de données ou d'appeler des services web pour acquérir des informations. Nous recherchons un développeur expérimenté qui participera aux évolutions que nous devons apporter sur ces 2 composants dans le cadre de la finalisation de notre Core Model Finance.
Freelance

Mission freelance
Concepteur -Développeur NodeJS / Java

Publiée le
Google Cloud Platform (GCP)
Java
Node.js

3 mois
400-550 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Nous recherchons un Concepteur -Développeur pour accompagner notre client basé sur Villeneuve-d'Ascq. À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Description actuelle du projet Dans le programme FINE, plusieurs composants majeurs interviennent la chaîne d'intégration des données : - L'interpréteur comptable : Il est utilisé pour transformer, valider et enrichir les fichiers de données afin qu'ils soient envoyés dans la chaîne d’intégration - Un ETL : permet de transporter et convertir les fichiers de données ou d'appeler des services web pour acquérir des informations. Nous recherchons un développeur expérimenté qui participera aux évolutions que nous devons apporter sur ces 2 composants dans le cadre de la finalisation de notre Core Model Finance. La mission consistera à : - Développer et mettre au point des programmes de transformation et d'enrichissement de données en NodeJS typé typescript + SQL sur GCP - Développer et mettre au point des programmes de transformation et d'enrichissement de données en Java dans l’ETL - Réaliser les tests unitaires - Corriger les anomalies Une solide expertise en web service REST, NodeJS, Java est requise pour ce poste. La connaissance de GCP est également requise
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Datadog
Google Cloud Platform (GCP)

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Attaché à la Global Tech & Data platform, dans le Domain Voice of Customer tu rejoins une équipe pluridisciplinaire d’assistance à nos clients internes (BU, plateformes, …) dont la mission principale est de prendre en charge toutes les sollicitations en provenance des utilisateurs de la Tech&Data (Incidents, demandes de services, questions). Tu seras rattaché directement à l'activité de l'un de nos produits de data engineering: Datahub Pipelines pour lequel nous avons besoin de support fonctionnel (compréhension du logiciel back et front), technique (comprendre et régler des problèmes d'implémentations, notamment dans la stack technique des produits digitaux via terraform). L'univers de développement est complètement encadré dans GCP. Missions principales : 🛠 Tu analyses et résous des incidents complexes 🔍 Tu identifies les incidents récurrents 🤝 Tu traites les demandes de services 🤝 Tu collabores avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents 🤝 Tu collabores avec l'équipe onboarding et advocacy pour l'accompagnement des nouveaux utilisateurs 📊 Tu contribues à l'automatisation et à l’amélioration continue du/des produits 📝 Tu documentes et partages nos résolutions pour capitaliser 2. Compétences techniques requises : ✅ Cloud Computing : GCP ✅ Observabilité & Monitoring : Datadog, Prometheus, Grafana, ✅ Automatisation & Infrastructure as Code : Terraform, Ansible, Helm, Kubernetes (K8s) ✅ Scripting : Python, Bash, Go ✅ Gestion des alertes : PagerDuty 3. Soft Skills recherchées : ⭐ Esprit analytique : Capacité à détecter rapidement des problèmes et à les résoudre efficacement. ⭐ Proactivité & autonomie : Capacité à anticiper les incidents avant qu’ils n’impactent les services. ⭐ Collaboration : Travail en équipe avec les équipes produit ⭐ Sens du service client : la satisfaction de nos clients est ta priorité Un minimum de 2 jours sur site est exigé
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
CDI
Freelance

Offre d'emploi
Expert Kubernetes / DevOps

Publiée le
Ansible
Azure
Cloud

3 ans
40k-65k €
400-560 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de son pôle DevOps, un grand groupe international du secteur du luxe recherche un Expert Kubernetes / DevOps afin d’industrialiser les déploiements des infrastructures cloud et de renforcer l’expertise autour des plateformes de conteneurisation. La mission s’inscrit au sein d’une équipe DevOps transverse, en charge des produits et solutions d’automatisation utilisés par les équipes techniques et projets. Objectifs de la mission L’expert interviendra sur les sujets suivants : Définition, évolution et maintien des toolkits de la fondation Kubernetes déployée sur plusieurs environnements cloud Contribution experte au déploiement et à l’extension de la plateforme Kubernetes sur différents fournisseurs cloud Mise en place de standards, bonnes pratiques et patterns d’industrialisation Accompagnement des équipes projets dans l’adoption et l’utilisation de la fondation Kubernetes Support aux équipes opérationnelles Transfert de compétences vers les équipes internes Responsabilités principales Participer à l’animation et à l’expertise du domaine DevOps Intervenir en tant que référent technique Kubernetes Garantir la qualité, la robustesse et la maintenabilité des déploiements Contribuer à l’amélioration continue des processus et outils DevOps
CDI

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
DBT
DevOps

Rennes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer GCP confirmé : Concevoir, développer, opérationnaliser et surveiller les systèmes de traitement de données (structurées et non structurées) sur Google Cloud Platform Créer des pipelines de données permettant d’automatiser la collecte et la préparation de données nécessaire à l'analyse de données, à la mise en œuvre d'API Définir des solutions globales permettant de répondre rapidement aux besoins métiers Evoluer sur les différents outils de l'écosystème, tels que Google BigQuery, Google Cloud Storage, Looker Studio, Dataflow, Airflow, Firestore, Pub/Sub, Kibana, Elastic search, SQL, Git, Jenkins, Docker, etc. Possible développement de flux sur datastage (IBM)
CDI

Offre d'emploi
Tech Lead Java / Angular

Publiée le
Angular
Docker
Google Cloud Platform (GCP)

Massy, Île-de-France
Télétravail partiel
La Digital Factory Magasin conçoit et développe l’ensemble des assets digitaux (back-office, applications web et mobiles) destinés aux collaborateurs en magasin. Les équipes, composées d’experts en technologie, design et product management , travaillent en continu à l’amélioration et à la refonte de l’expérience utilisateur des équipes terrain. Au sein de la North Star Produits en Rayon de la Digital Factory, vous intégrez une équipe de développement intervenant sur les produits Approvisionnement ou Disponibilité . Vous travaillez en lien direct avec les Chapter Leads Java et Front , sous la responsabilité d’un IT Manager , et en collaboration étroite avec un Product Manager . Vous encadrez une équipe de 4 à 6 collaborateurs externes (développeurs et QA).
CDI
Freelance

Offre d'emploi
Architecte Cloud de Confiance

Publiée le
Azure
Google Cloud Platform (GCP)

3 ans
Paris, France
Télétravail partiel
1. Architecture Cloud et gouvernance des socles Concevoir et faire évoluer les architectures des socles Cloud dans un contexte Cloud de Confiance. Définir et maintenir les standards d’architecture , patterns et bonnes pratiques Cloud. Produire et maintenir les dossiers d’architecture (socle, sécurité, réseau, IAM, exploitation). Participer aux revues d’architecture projets et émettre des avis techniques structurants. Contribuer à la définition des principes de gouvernance Cloud (sécurité, exploitabilité, coûts, conformité). 2. Industrialisation et Infrastructure as Code Concevoir, développer et maintenir des modules Infrastructure as Code (Terraform) pour les socles et les projets. Structurer des architectures IaC modulaires, versionnées et documentées . Mettre en œuvre et maintenir des pipelines CI/CD pour l’industrialisation des socles et environnements projets. Garantir la qualité des livrables via des pratiques de tests, revues de code et standards de développement . Contribuer à une approche GitOps / Platform Engineering . 3. Communs Cloud et logique produit Développer et maintenir un catalogue de communs Cloud . Assurer la maintenance évolutive des communs existants. Garantir la cohérence et la compatibilité des communs dans un contexte multisocle . Participer à une logique produit plateforme .
Freelance

Mission freelance
Network Ops Engineer sénior

Publiée le
DevOps
Google Cloud Platform (GCP)
Network

3 ans
100-510 €
Lille, Hauts-de-France
Télétravail partiel
En tant que Network Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau datacenter et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe ADEO. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall, Proxy applicatif) - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures réseau. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau. - Appliquer les mises à jour et les correctifs de sécurité. - Participer à l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations).
Freelance

Mission freelance
DevOps Cloud GCP - Anthos

Publiée le
Ansible
Google Cloud Platform (GCP)
Kubernetes

12 mois
530-570 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de déploiement d’une plateforme Cloud Hybride basée sur Anthos et des infrastructures Edge , notre client recherche un Ingénieur DevOps Cloud pour renforcer l’équipe en charge de la mise en place, de l’industrialisation et du support des environnements Kubernetes du Dev à la Production. Vous interviendrez au sein de la Direction Plateforme & Cloud, en support du Product Leader Cloud, et jouerez un rôle clé dans la construction d’un environnement hybride innovant. Missions : 1. Déploiement & Exploitation Anthos / Kubernetes Mise en œuvre d’Anthos sur infrastructures Edge hybrides (on-prem + cloud public). Création, configuration et industrialisation de clusters Kubernetes (on-prem / cloud). Mise en place et maintenance des environnements Dev, Test, Pré-prod et Prod. 2. Automatisation & Infra-as-Code Automatisation des déploiements d’infrastructure via Terraform et Ansible . Contribution à la mise en place d’une approche GitOps. Standardisation et fiabilisation des processus CI/CD. 3. Documentation & Transfert de compétences Rédaction de documentation technique et opérationnelle. Accompagnement et montée en compétences des équipes internes (infrastructure & projets). 4. Support & Run Support N2/N3 sur la plateforme en production. Assistance aux équipes projets dans l’utilisation de Kubernetes / Anthos. Participation à l’amélioration continue de la plateforme.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2804 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous