Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 298 résultats.
Freelance

Mission freelance
Data Scientist

WHEEL OF WORK
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python

1 an
450-550 €
Lille, Hauts-de-France

Contexte Nous recherchons un référent technique IA générative pour concevoir, industrialiser et fiabiliser des solutions en production (LLM, RAG, agents, chatbots) et le traitement de données non structurées (PDF, images). Le projet s’appuie sur des pratiques solides d’ingénierie logicielle et doit évoluer dans un environnement cloud / software engineering (GCP, Python). Mission En tant que Technical Lead IA / MLOps, vous aurez pour missions principales : Concevoir et déployer des architectures robustes pour LLM, RAG, agents et chatbots, en garantissant scalabilité, coût et latence. Développer et maintenir des pipelines de traitement documentaire et multimodal (parsing PDF, OCR, extraction de tables, prétraitement d’images, fusion texte+image). Industrialiser les modèles et services : CI/CD, conteneurisation (Docker/K8s), déploiement, suivi d’expériences, monitoring et observabilité (offline & online). Mettre en place des standards d’ingénierie : code propre, tests automatisés, revues d’architecture, templates projets et documentation vivante. Superviser la qualité des données et la conformité (GDPR), gérer secrets/IAM, et définir des mécanismes de mitigation des risques LLM (hallucinations, injection de prompts, fuite de données). Encadrer et former l’équipe : mentoring, diffusion des bonnes pratiques, participation aux revues de code et aux choix techniques. Mesurer et garantir les indicateurs opérationnels des chatbots/agents (latence, coût, taux de réponse, satisfaction utilisateur).

Freelance

Mission freelance
INGENIEUR RESEAU

Groupe Aptenia
Publiée le
Azure
Cloud
Fortinet

6 mois
400-550 €
Paris, France

🎯 Missions principales : - Administrer et maintenir les infrastructures réseaux (switchs, Wifi, sécurité, IPAM/DHCP) - Diagnostiquer et résoudre les incidents de niveau 2 et 3 - Participer à la mise en œuvre et à l’évolution des projets réseaux et sécurité - Contribuer au renforcement des politiques de sécurité et à leur application - Collaborer avec les différentes équipes IT pour assurer la disponibilité et la performance des services - Être force de proposition dans l’amélioration et l’optimisation des infrastructures

CDI

Offre d'emploi
Data Analyst/ Data Engineer F/H

ICSIS
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Python

Lille, Hauts-de-France

Qui sommes nous ICSIS est une ESN digitale innovante et en fort développement, implantée à Lille et Strasbourg, qui accompagne ses clients dans leurs projets de Transformation Numérique avec un positionnement régional de proximité. Intégrer ICSIS, c'est participer à un projet d'entreprise motivant centré autour de ses collaborateurs, bénéficier d un management de proximité, avec un suivi et un accompagnement personnalisé de son projet professionnel. Nous proposons à nos consultants des missions valorisantes au sein des équipes de nos clients finaux (Banques, Finances, Assurances, Distribution et E-Commerce, Services & Utilities). ICSIS propose un panel varié de missions : - Développement applicatif (Back-End, Front End, Data, Cloud), - Conseil en Architecture, - Conseil des Maîtrises d’Ouvrage dans l’évolution de leurs métiers, de leurs organisations et dans l’intégration des nouveaux usages, - Assistance au Pilotage de projets. Dans le cadre du développement de notre agence de Lille, nous recrutons actuellement des Data Analyst / Data Engineer. La mission consiste à : - Maîtrise de la donnée et garant de la qualité de son utilisation - Analyser les besoins des utilisateurs et proposer des solutions innovantes - Développer les solutions data - Maintenir les solutions existantes - Mettre en oeuvre des pipelines de données

Freelance
CDI

Offre d'emploi
Data Engineer GCP & Talend

Espritek
Publiée le
Google Cloud Platform (GCP)
SQL
Talend

3 ans
Ivry-sur-Seine, Île-de-France

Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description  Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences  Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP x PYTHON

UCASE CONSULTING
Publiée le
Google Cloud Platform (GCP)
MySQL
Python

6 mois
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients un Data Engineer Python x GCP : Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant les bonnes pratiques d’architecture data et développement • Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants • Rédiger la documentation technique des data products • Assurer un support aux testeurs • Reporter de ton activité à ta Squad et travailler dans une démarche d’efficacité collective Compétences techniques : • Langages de programmation : Python, Scripts Shell • Modélisation des données : Modèle Physique des Données (MPD), requêtes SQL. • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, GCP Dataflow, Data Build Tool (DBT) • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab, Flamingo • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Manipulation des formats de fichiers : CSV, JSON, Avro, XM

Freelance

Mission freelance
Ops Engineer – Réseau & Cloud (Infrastructure & Automatisation)

ESENCA
Publiée le
Google Cloud Platform (GCP)
Python
Réseaux

1 an
400-500 €
Lille, Hauts-de-France

En tant que Ops Engineer dans l'équipe Infrastructure Core Services, votre rôle sera crucial pour concevoir, déployer, maintenir et optimiser nos infrastructures réseau et cloud, garantissant ainsi la performance, la sécurité et la disponibilité de nos services pour l'ensemble du groupe. Vous serez un acteur clé de notre transformation digitale, en participant activement à l'évolution de nos architectures hybrides (on-premise et cloud). Vos Responsabilités Principales Conception et Architecture : - Participer à la définition des architectures réseau (LAN, Firewall) et cloud (Landing Zone). - Évaluer et recommander de nouvelles technologies et solutions pour améliorer nos infrastructures. Déploiement et Implémentation : - Déployer et configurer des équipements réseau (routeurs, switchs, firewalls) et des services cloud (VPC, subnets, routing). - Mettre en œuvre des solutions d'automatisation (IaC - Infrastructure as Code) pour le déploiement et la gestion des infrastructures. - Création d’API permettant l’automatisation des changements Maintenance et Opérations : - Assurer la surveillance, la performance et la disponibilité de nos infrastructures réseau et cloud. - Diagnostiquer et résoudre les incidents complexes (niveau 3) liés au réseau et au cloud. - Appliquer les mises à jour et les correctifs de sécurité. - Participer a l'astreinte Sécurité : - Mettre en œuvre et faire respecter les politiques de sécurité réseau et cloud. - Participer aux audits de sécurité et proposer des actions correctives. - Optimisation et Amélioration Continue : - Identifier les opportunités d'optimisation des coûts et des performances de nos infrastructures. - Contribuer à l'amélioration continue des processus et des outils. Collaboration et Documentation : - Travailler en étroite collaboration avec les équipes de développement, de sécurité et d'autres équipes infrastructure. - Rédiger et maintenir à jour la documentation technique (schémas, procédures, configurations). Compétences Techniques Requises Réseau : - Maîtrise des protocoles réseau (TCP/IP, BGP, OSPF, MPLS). - Expertise sur les équipements Cisco, ou équivalents (routing, switching). - Connaissance approfondie des firewalls (Palo Alto). Cloud : - Expérience significative sur au moins un fournisseur de cloud majeur (GCP, Azure). - Maîtrise des services réseau cloud (VNet/VPC, FW, Cloud NAT, routing). - Expérience avec l'Infrastructure as Code (Terraform). Software Engineering: - Experience en Software Engineering (Python)/API Monitoring : - Expérience avec des outils de monitoring (Datadog, Zabbix).

Freelance
CDI

Offre d'emploi
Data Engineer GCP (F/H)

CELAD
Publiée le
Google Cloud Platform (GCP)

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Freelance

Mission freelance
Ingénieur Data GCP

INSYCO
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
500-600 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4875 en objet du message Vos responsabilités Collecte et l’ingestion de différentes sources de données non homogènes Mise en place de pipelines de traitement de données Développement des modèles de données Extraction et l’exposition des données du Lakehouse vers d’autres services Industrialisation des projets sur la GCP Mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données Participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données Participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe Expériences dans un environnement du Cloud Provider Public Google (GCP) Expériences sur des projets intégrant Gitlab CI/CD Maitrise des langages SQL et Python Expériences sur des projets Big Data intégrant PySpark, BigQuery, et Airflow Expériences dans la mise en place de pipeline ETL / ELT

Offre premium
Freelance

Mission freelance
Data Engineer (GCP/Talend)

Onetribe SAS
Publiée le
Git
Google Cloud Platform (GCP)
Java

3 ans
500-610 €
Paris, France

• Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

CDI
Freelance

Offre d'emploi
Ingénieur de Production DevOps – Secteur Bancaire (Paris)

HN SERVICES
Publiée le
DevOps
Google Cloud Platform (GCP)

2 ans
36k-54k €
320-440 €
Paris, France

🎯 Contexte du projet Dans le cadre d’un projet stratégique de fusion de systèmes d’information , nous recherchons un Ingénieur de Production DevOps expérimenté pour renforcer nos équipes. Vous interviendrez sur des environnements critiques, en lien étroit avec les équipes de développement et la DSI, dans une démarche DevOps orientée qualité, automatisation et fiabilité. 🛠️ Environnement technique Systèmes : Linux, Windows Middleware : JBoss 8, Apache 2, IIS Cloud & Conteneurisation : OpenShift, GCP ou AWS CI/CD & DevOps : Jenkins, Bitbucket, XL Deploy (XLD), XL Release (XLR), Ansible Supervision & Logs : Zabbix, ELK Méthodologie : DevOps, Agile 📌 Vos missions🔧 En mode RUN Assurer la MCO des applications du département Documenter rigoureusement les applications confiées Organiser les échanges réguliers avec la DSI Respecter les normes de conception des chaînes de traitement Comprendre le fonctionnel et optimiser l’exploitation 🏗️ En mode BUILD Être le point d’entrée entre la DSI et les équipes techniques Produire et exiger les livrables projets (dossiers d’exploitation, consignes…) Provisionner les infrastructures des environnements Identifier les risques projets et contribuer aux plans de remédiation Valider ou adapter l’architecture au meilleur coût Participer à la conception et à l’automatisation de la chaîne CI/CD Anticiper l’exploitabilité dès la phase de développement (logs, supervision, ordonnancement…) Définir et instruire les niveaux de classe de service

Freelance

Mission freelance
Lead dev (js/go/python)

ESENCA
Publiée le
Go (langage)
Google Cloud Platform (GCP)

1 an
400-450 €
Lille, Hauts-de-France

Lead développeur senior avec forte appétence DevOps Dans le cadre du développement et du maintien des solutions mise à disposition des développeurs du groupe, l’équipe Delivery Experience recherche un lead développeur. L’usine logicielle est utilisée par plus de 3000 développeurs. L’équipe est composée de plus de 10 personnes, profils tech, développeurs ou experts techniques. Nous recherchons un profil ayant l'habitude de mettre en place des toolchains hautement critiques pour les développeurs et en mesure de développer les intégrations nécessaires à base d'API : - mise en place golden stack : Go, Python, Java ... - enforcement de workflow de build Une astreinte rémunérée est également demandée pour assurer le support 24/7 de l’équipe. Activités autour de la Delivery Experience : - Développement et maintien des produits de la Delivery Experience (Software Delivery Toolchain) - Collaboration en sous groupes au sein de l’équipe - Agilité de développement - Support aux développeurs de niveau 1 - Capacité à s’adapter

Freelance

Mission freelance
Business Analyst

ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
PL/SQL

1 an
400-480 €
Lille, Hauts-de-France

Business analyst confirmé avec au moins 3 ans d'expérience, sensible à un processus de qualité. Dans un contexte de responsabilisation, nous recherchons des ressources autonomes, orientées aux résultats, polyvalentes, capables de s'adapter au contexte et pouvant intervenir dans différents domaines. La mission aura pour objectif principal de contribuer à la mise en place d'un nouvel EPM (Enterprise Performance Management) et d'une nouvelle solution de gestion du plan d'assortiment international. Ces deux projets sont basés sur une solution logicielle unique : Board (). Activité principale : analyste (spécifications fonctionnelles et techniques), coordination avec toutes les parties prenantes des projets (notamment les éditeurs), gestion d'un backlog en fonction des priorités, entretien et renouvellement de l'agilité au sein de l'équipe. Activités complémentaires : recette fonctionnelle, traitement des incidents et demandes de service de niveau 3 Langues : français et anglais Activité principale : Analyse / Test / Spécifications fonctionnelles et techniques / Agile (Scrum) Profil : organisé, curieux, polyvalence, sérieux Technique (très fortement souhaité) : Board Technique (optionnel) : GCP, PL/SQL, Java, Talend

CDI
Freelance

Offre d'emploi
Platform engineer Azure - Sénior

CAPEST conseils
Publiée le
Ansible
Azure Kubernetes Service (AKS)
Google Cloud Platform (GCP)

24 mois
40k-71k €
400-650 €
Paris, France

Rejoignez une équipe technologique de premier plan pour piloter l'automatisation, la scalabilité et la sécurité de nos infrastructures hybrides (Azure / On-premise) dans un environnement international et agile. Vos Missions Clés Automatisation & Infrastructure as Code (IaC) : Concevoir, déployer et maintenir les infrastructures sur Azure via Terraform et Ansible . Gérer et faire évoluer les environnements conteneurisés avec Kubernetes (AKS) et (GKE) CI/CD & DevSecOps : Construire et optimiser les pipelines CI/CD ( GitLab CI, Azure DevOps ) pour industrialiser les déploiements. Intégrer la sécurité au cœur des pipelines : gestion des identités ( Azure AD ), analyse de vulnérabilités, et monitoring. Cloud & Réseau : Assurer la conception et la gestion des architectures cloud sécurisées (Firewalling, VNet, VPN, SD-WAN). Participer à la roadmap technique et garantir la fiabilité et la performance des plateformes. De bonnes connaissances sur GCP sont importantes

Freelance
CDI

Offre d'emploi
Business Analyst

Atlanse
Publiée le
Google Cloud Platform (GCP)
Java
PL/SQL

1 an
46k-55k €
400-550 €
Lille, Hauts-de-France

En tant que Business Analyst, vous contribuerez à la mise en place d’un nouvel EPM (Enterprise Performance Management) et d’une nouvelle solution de gestion du plan d’assortiment international. Votre rôle Analyse & Spécifications Rédiger les spécifications fonctionnelles et techniques en lien avec les besoins métiers et les contraintes IT Coordination & Pilotage Assurer la coordination avec toutes les parties prenantes des projets (équipes métiers, IT, éditeurs, partenaires externes) Gérer et prioriser le backlog produit en alignement avec les objectifs business Contribuer à l’entretien et au renouvellement de l'agilité au sein de l'équipe (rituels, amélioration continue) Recette & Support Réaliser la recette fonctionnelle et valider la conformité des solutions livrées Assurer le traitement des incidents et demandes de service de niveau 3

CDI

Offre d'emploi
Developpeur Python/GCP (CDI)

Amontech
Publiée le
Google Cloud Platform (GCP)
Python

Aubervilliers, Île-de-France

Nous recherchons une personne avec une expérience réussie de 5+ ans en développement Python et conception logicielle, ainsi qu’une expérience d’implémentation de solutions AI. Vous devez maîtriser les bonnes pratiques de développement agile (Scrum, CI/CD, GitLab, etc.). Une connaissance de l'architecture Cloud (GCP un plus) et du design d’API est requise. Vous devrez démontrer d'excellentes qualités relationnelles, une capacité à travailler en équipe. En rejoignant l'équipe GreenPath, rattaché‧e au Product Manager au sein du département DB&T (Digital Business & Technology), vous aurez l'opportunité de contribuer à un projet ambitieux au service de la transition écologique. Vous évoluerez dans un environnement stimulant et collaboratif, au sein d'une équipe pluridisciplinaire engagée.

Offre premium
Freelance

Mission freelance
Développeur Full stack - Python (Django) / React- ANGLAIS

Codezys
Publiée le
AWS Cloud
Azure
Django

6 mois
290-400 €
Paris, France

Métiers: Développeur Fonctions Etudes & Développement Spécialités technologiques Type de facturation Assistance Technique (Facturation avec un taux journalier) Compétences Technologies et Outils Python; TypeScript; React; Django; GCP; Kubernetes; AWS; SQL; Azure Méthodes / Normes Agile Secteurs d'activités Services Informatiques Description et livrables de la prestation UN TEST TECHNQIUE ET PREVU PAR LE CLIENT AVANT LES ENTERTIENS. SEUL LES CVs AVEC UNE EXPERTISES DJANGO ET REACT SERONT ETUDIES. L'ANGLAIS ORAL EST UN PREREQUIS, LE BUDGET POUR CE BESOIN EST ENTRE 400€ et 450€. Pour l'un de nos clients dans le secteur bancaire, nous recherchons un développeur full stack pour intégrer l'équipe de développement de leur plateforme maison. Cette plateforme, une All Data Platform, a été conçue pour répondre aux enjeux de la data de demain dans le domaine de l’Asset Management. Basée sur les principes du Data Mesh, elle facilite l’ingestion et l’exploitation des données tout en offrant aux Citizen Developers un écosystème sécurisé, modulable et évolutif. Missions principales En tant que membre du lab, le/la prestataire sera responsable de : - Répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur, - Participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists, - Contribuer à l'amélioration continue des produits et services proposés par l'entreprise, - La prestation nécessitera du développement de prototypes et de l’accompagnement technique, - La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet, - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de données, - Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichissement de l’automatisation des tests, - Respect des délais impartis. - ANGLAIS ORAL NECESSAIRE

298 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous