Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 259 résultats.
CDI

Offre d'emploi
Data Engineer GCP H/F

JEMS
Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Freelance
CDI

Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT

K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet

1 an
40k-49k €
430-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
CDI

Offre d'emploi
Revenue Data Analyst F/H - Finance, trésorerie (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Voisins-le-Bretonneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur devops - OPS Data & IA

OBJECTWARE
Publiée le
DevOps

3 ans
Île-de-France, France
Dans le cadre de ses activités, une grande organisation du secteur financier recherche un intervenant pour intégrer une entité dédiée à la Data et à l’Intelligence Artificielle . L’équipe est responsable : de la qualité des livrables data du déploiement sur un cloud privé interne de la disponibilité et de la fiabilité des assets Elle conçoit, développe et maintient des plateformes et frameworks de data science . 2. Objectifs de la mission Assurer l’ exploitation et la fiabilité des environnements de production Data / IA Participer à l’ industrialisation des modèles de machine learning Contribuer à la construction et à l’évolution des plateformes data Garantir la qualité, la performance et la disponibilité des services Accompagner les équipes sur les bonnes pratiques DevOps et Data 3. Missions 3.1 Production & Exploitation Administration, exploitation et automatisation des systèmes d’exploitation Gestion et maintien en conditions opérationnelles d’un parc de containers de production Supervision et optimisation des environnements de production Data / IA 3.2 DevOps & Conteneurisation Build, optimisation et maintenance d’images Docker Gestion du RUN d’un volume important de containers en production Participation à l’industrialisation des déploiements via les outils CI/CD et GitOps 3.3 Plateforme Data & IA Construire et porter la vision technique de la plateforme de data science Piloter les choix techniques en lien avec les enjeux Data et IA Contribuer à la conception et à l’évolution des frameworks data 3.4 Innovation & expertise Réaliser une veille technologique active sur les outils et pratiques en Data Science Former et accompagner les équipes sur les technologies les plus pertinentes Être force de proposition sur les évolutions techniques 3.5 Qualité & documentation Rédaction de documents techniques (architecture, gestion des incidents) Production de livrables de qualité Partage des connaissances et bonnes pratiques au sein de l’équipe 4. Stack technique Infrastructure & DevOps GitLab CI/CD GitOps Cloud privé interne Containers & orchestration Docker Kubernetes Observabilité & monitoring Prometheus Grafana Thanos Sécurité & gestion des accès Vault (gestion des secrets) Keycloak, JWT, OIDC Réseau Reverse Proxy (Traefik) Data & stockage PostgreSQL Redis ELK Outils complémentaires Artifactory Certmanager Langages & systèmes Python Golang Bash GNU/Linux 5. Profil recherché Expertise avancée sur Kubernetes (architecture et administration de clusters) Bonne maîtrise des pratiques DevOps / CI-CD / GitOps Solides compétences en production et exploitation Connaissances des environnements Data et IA Compétences en réseau, sécurité et gestion des accès Capacité à évoluer dans un environnement complexe et exigeant 6. Enjeux clés du poste Industrialisation des workflows de Data Science Fiabilisation des environnements de production IA Scalabilité des plateformes Diffusion des bonnes pratiques DevOps et Data
Freelance

Mission freelance
Expert Infrastructure & Supervision Broadcast

Sapiens Group
Publiée le
Active Directory
Centreon
Cisco

12 mois
580-600 €
Île-de-France, France
Mission principale Concevoir, déployer et optimiser une supervision complète des infrastructures IT et broadcast , basée sur Prometheus, Grafana et Centreon , pour garantir la disponibilité des chaînes et la qualité des flux de diffusion 24/7. Responsabilités Mise en place et administration des outils de supervision (Centreon, Prometheus, Grafana) Supervision des flux broadcast IP (ST 2110 : latence, perte, synchronisation PTP) Déploiement et développement de sondes et exporters (Linux, Windows, réseau, applicatif) Supervision des infrastructures critiques (systèmes, virtualisation VMware, réseaux, stockage NetApp/Isilon) Mise en place d’un monitoring orienté service de bout en bout (infra → média → diffusion) Configuration de l’alerting et des scénarios d’escalade 24/7 Capacity planning et analyse de performance Automatisation des tâches (Python, Bash, PowerShell, API) Documentation technique (DAT, procédures, architecture, cartographie des flux)
CDI

Offre d'emploi
ALTERNANCE - Chef de projet junior Gouvernance Data (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours

Almatek
Publiée le
Python

6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Freelance

Mission freelance
Product Owner - Transaction Regulatory Reporting

NEXORIS
Publiée le
Data quality

1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Freelance

Mission freelance
Senior Data manager & Senior Lead IA "OCR, NLP, VLM,.." (anglais courant)

WINSIDE Technology
Publiée le
Natural Language Processing (NLP)
OCR (Optical Character Recognition)

3 ans
510-680 €
Paris, France
1. Contexte du service Cette mission vise à établir un cadre complet de gestion des données non structurées afin de soutenir les initiatives axées sur les données et l'IA. Elle a pour objectif de définir des normes, des règles et des cadres garantissant la fiabilité et la réutilisabilité des données, et de faciliter le déploiement de solutions de données et d'IA évolutives grâce à la collaboration avec les parties prenantes concernées. Cette activité comprend le pilotage d'approches innovantes, la consolidation des enseignements tirés et l'alignement avec les stratégies de données globales. 2. Périmètre du service (liste non exhaustive) Développement du socle méthodologique de la gestion des données non structurées, aligné sur les meilleures pratiques du secteur. Définition et documentation des normes, règles et cadres garantissant la qualité, la cohérence et la réutilisabilité des données. Coordination avec les parties prenantes internes pour recueillir leurs retours et assurer l'alignement avec les objectifs stratégiques. Tests pilotes de cadres innovants pour les données non structurées et intégration des enseignements tirés dans les pratiques opérationnelles. Évaluation des fournisseurs de technologies, analyse comparative des solutions et recommandation d'outils et de plateformes adaptés. Évaluation des techniques de traitement documentaire (OCR, NLP, VLM), de la gestion des métadonnées, des ontologies et des solutions de bases de données vectorielles. Soutien aux initiatives de transformation liées à l'utilisation des données pour l'IA et l'analyse. 3. Prestations de service (liste non exhaustive) Un cadre méthodologique complet pour la gestion des données non structurées. Normes, politiques et règles documentées pour la qualité des données, les métadonnées et l'architecture des données. Rapports sur les projets pilotes, incluant les enseignements tirés et les bonnes pratiques. Rapports d'évaluation des fournisseurs et analyses comparatives. Documentation technique sur les techniques de traitement documentaire et les méthodes de transformation des données. Recommandations concernant les outils, les plateformes et les plans de mise en œuvre, en adéquation avec les besoins opérationnels.
Freelance
CDI

Offre d'emploi
Développeur SAP ABAP – Migration ECC vers S/4 HANA (SQL / Data)

Etixway
Publiée le
ABAP
SAP
SAP ABAP

1 an
40k-50k €
400-560 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un projet de transformation majeur, nous recherchons un Développeur SAP ABAP pour intervenir sur une migration SAP ECC vers S/4 HANA . Le consultant interviendra sur des sujets techniques à forte valeur ajoutée, notamment autour de la reprise, transformation et manipulation des données SAP . Une formation est prévue sur l’outil de migration utilisé (ADM), toutefois une expérience sur des projets similaires est fortement attendue. Missions principales : Développement ABAP dans un environnement ECC / S/4 HANA Manipulation et exploitation des tables SAP Participation aux travaux de migration de données (ECC → S/4) Analyse et transformation des données Développement et adaptation des programmes existants dans un contexte de migration Collaboration avec les équipes techniques et fonctionnelles Environnement : SAP ECC, S/4 HANA, ABAP, SQL
Freelance

Mission freelance
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Freelance

Mission freelance
Data Manager

RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management

6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
Freelance

Mission freelance
Expert Réseau, Sécurité & Accès

Sapiens Group
Publiée le
Active Directory
Cisco
Palo Alto

12 mois
600-650 €
Île-de-France, France
Contexte Vous intervenez sur les infrastructures réseau et sécurité supportant les systèmes de diffusion et de supply chain média, dans des environnements critiques à très forte exigence de disponibilité. Objectif Assurer la conception, l’exploitation et la sécurisation des réseaux, des accès et des infrastructures SAN dans un contexte broadcast. Responsabilités principales 1. Réseaux & SAN Administration des infrastructures réseau complexes (LAN/WAN) Gestion des équipements Cisco, HP, Avaya Exploitation des SAN Brocade (Gen5 / Gen7) Gestion des flux critiques de diffusion 2. Sécurité des infrastructures Administration des pare-feu (Palo Alto, JetNexus) Mise en œuvre de la segmentation réseau Gestion des architectures sécurisées (3 tiers) 3. Gestion des accès & identités Administration des bastions Wallix Gestion des accès privilégiés (PAM) Gestion des accès distants (VPN ISA) Administration Active Directory (mode 3 tiers) Gestion PKI et certificats 4. Gestion des vulnérabilités Veille CVE sur composants critiques (réseau, sécurité, virtualisation) Analyse d’impact Déploiement des correctifs en production sensible 5. Exploitation & incidents Gestion d’incidents réseau et sécurité critiques Analyse et résolution de problématiques complexes Coordination avec les éditeurs (Cisco, Palo Alto, Brocade…) 6. Projets & évolutions Remplacement et upgrade d’infrastructures (ex : switch SAN) Sécurisation des flux et des accès Mise en conformité sécurité 7. Supervision & monitoring Contribution à la supervision (Centreon, Prometheus) Mise en place d’alertes sur flux critiques 8. Documentation Rédaction des procédures réseau & sécurité Documentation des flux (IPAM) Comptes rendus techniques
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYTHON

UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins

3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Freelance

Mission freelance
Proxy Product Owner

Codezys
Publiée le
API
Data management

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte : Vous intégrerez le département Architecture & Exploitation de la Direction des Systèmes d'Information dans le cadre du programme IAM , en particulier sur le projet IGA . Objectif du projet : Mettre en place une solution de Gestion des Identités et des Accès pour gagner en autonomie par rapport à la solution du groupe, réduire les délais d’accès aux applications, et fiabiliser le traitement pour minimiser les erreurs et écarts entre droits théoriques et réels. Structure du projet : Lot Solution : conception et déploiement de la solution IGA basée sur le produit OIM. Lot Raccordement : raccordement automatisé des applications jusqu’ici raccordées manuellement. Rôle et responsabilités : En tant que Proxy Product Owner pour le lot Raccordement, vous serez intégré(e) à l’équipe produit et aurez pour missions : Cadrer et concevoir les raccordements en : analysant les besoins d’habilitation des applications définissant les spécifications fonctionnelles d’intégration définissant les règles de mapping des données (identités, rôles, attributs) Piloter la réalisation des raccordements, en : collaborant avec les équipes produit, techniques et cybersécurité s’assurant de la bonne compréhension et utilisation des API et mécanismes d’intégration accompagnant dans la mise en œuvre des flux de provisioning Objectifs clés : Sécuriser le provisioning des habilitations Assurer la compréhension des mécanismes d’intégration Garantir la cohérence du mapping des données Maintenir la qualité fonctionnelle des intégrations Responsabilités principales : Analyser et définir les besoins pour les connecteurs applicatifs, incluant flux d’intégration et règles de provisioning Piloter le raccordement des applications, de la phase de cadrage à la mise en production Valider le mapping des données entre le produit et les applications Coordonner les équipes impliquées et animer les ateliers, comités et points de suivi Anticiper et gérer les risques et dépendances Suivre et reporter l’avancement, tenir à jour les outils de pilotage Veiller à la conformité des intégrations avec les standards IAM et processus internes Participer au fonctionnement Agile de l’équipe (backlog, priorisation, rituels)
CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

3259 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous