Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 662 résultats.
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI
Freelance

Offre d'emploi
Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Data management
Microsoft Power BI

3 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes client un Data Governance Manager – Stewardship & Adoption sur Bordeaux Expérience : mini 5 ans en Data Gouvernance Localisation : Bordeaux Démarrage asap pour 5 mois contexte de la mission et l’équipe Chez mon client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents • capacité à structurer et animer une communauté de Data Stewards • capacité à embarquer des parties prenantes variées et à conduire le changement • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation • approche pragmatique et orientée adoption / impact Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le

1 an
500-530 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
Freelance

Mission freelance
Data Analyst Monétique (F/H)

CELAD
Publiée le
Azure
Big Data
Cloud

12 mois
500-530 €
Paris, France
Data Analyst Monétique (F/H) Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Monétique pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est composée d’environ 10 personnes et s’inscrit dans l’écosystème Data des moyens de paiement Cette équipe est en charge de : L’alimentation des équipes métiers et des autres squads data en données de paiements et données clients La production et diffusion de reportings et tableaux de bord power bi à destination des métiers et des établissements du groupe. L’alimentation de systèmes opérationnels et d’interfaces clients en données de paiements L’accompagnement des équipes métiers dans l’exploitation des données de paiement 🎯 Vos missions Dans ce contexte, vous interviendrez en tant que Data Analyst sur les activités suivantes : Participer à la collecte, la transformation et la gestion des données afin de garantir leur intégrité, qualité et sécurité Contribuer à l’animation de groupes de travail avec les sponsors, Business Analysts et membres de la squad (Data Engineers, Data Viz, BA…) Réaliser les recettes des traitements d’intégration et de transformation de données Rédiger et documenter les user stories, spécifications fonctionnelles et cahiers de recette en lien avec le Product Owner Accompagner et former les utilisateurs sur les usages des données et des outils de restitution
Alternance
CDI

Offre d'emploi
Data analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
consultant data

LK TECHNOLOGY
Publiée le
Microsoft Excel
Microsoft Power BI
SQL

4 mois
Hauts-de-Seine, France
Les principales tâches porteront sur le développement de rapport BI et d'analyses : Création de nouveaux rapports BI complexes: de la consolidation du besoin auprès du métier à la livraison (incluant la recette) Extension de rapports existants sur de nouveaux périmètres. L'amélioration/ optimisation de rapports existants: optimisation de la performance technique et amélioration visuelle pour une meilleure prise en main par les utilisateurs De manière ponctuelle, développement d'analyses ou extractions et consolidations de fichiers one-shot ad hoc en support aux équipes de business analystes à destination du marketing ou des équipes de communication
Offre premium
Freelance

Mission freelance
Consultant Architecte Senior - Infrastructures Hybrides (systèmes/stockage) et Services Managés

INTUISCIO
Publiée le
Administration système
Cloud privé
Cloud Provider

2 mois
700-850 €
Paris, France
Notre cabinet de conseil recherche un(e) consultant(e) senior pour intervenir sur un projet de transformation d'infrastructures du SI d'une grande entreprise et des services associés, et accompagner la définition de la nouvelle architecture technique et des services d'infogérance associés. Vos missions : Analyser l'architecture actuelle : systèmes, réseau, sauvegarde/stockage, hosting, services cloud, ... Analyser les services d'exploitation actuellement assurés par l'infogérant, Identifier les axes d'amélioration technologiques et les priorités associées, Contribuer à la préparation du RFI et à l'analyse des retours des fournisseurs potentiels, Définir la roadmap de la nouvelle stratégie technologique ainsi que le futur modèle de delivery de service attendu, Contribuer à la préparation du cahier des charges visant à transférer et à transformer les infrastructures vers un nouvel infogérant, avec les services associés, Dans un deuxième temps : Participer à l'analyse technique des offres reçues et aux ajustements techniques, Contribuer à la gouvernance du projet de transformation.
CDI

Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)

ASTRELYA
Publiée le
Collibra
Data governance
IA

92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Freelance

Mission freelance
: Assistant RSSI e-Commerce & Big-Data 500 e par jour

BI SOLUTIONS
Publiée le
Big Data
Cybersécurité

2 ans
400-500 €
Île-de-France, France
: Assistant RSSI e-Commerce & Big-Data 500 e par jour Assister le RSSI dans la gestion de la gouvernance, la sécurisation des processus, la sécurité des développements, et la sécurité des infrastructures liées au e-Commerce et à la data de Carrefour France, regroupant plusieurs métiers tel que Voyages, Spectacles, Cartes Cadeaux, eCommerce Retail et BigData; en apportant une expertise technique et en assurant un rôle de challenge auprès des équipes informatiques et métiers. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ● Connaissances des contraintes, technologies et risques liés à un site e-Commerce et aux services aux clients ● Connaissances des contraintes, technologiques et risques liés aux développements d’application web et mobile à destination des clients, mais aussi des collaborateurs. ● Connaissances des best practices de développement et des référentiels associés (OWASP) ● Connaissances des contraintes et technologies spécifiques au Big Data et la gestion du cycle de vie de la donnée et des contraintes réglementaires liées à la gestion de données personnelles. ● Sensibilité à la fraude client ● Techniques d’attaques courantes ● Bonnes pratiques ANSSI ● Protocoles de communications couramment utilisés ● Méthode Ebios RM d'analyse de risques 500 e par j
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle H/F

Mon Consultant Indépendant
Publiée le
AMOA
API
JSON

50k-60k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage : vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — : vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables, produisez les PV de recette. En transverse : vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques, facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : Démarrage : mai 2026 Durée : jusqu'à fin décembre 2026 Charge : temps plein Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
Freelance
CDI

Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)

Deodis
Publiée le
Data quality
Gouvernance

1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
CDI

Offre d'emploi
Data Analyst F/H (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

52k-57k €
France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Alternance - Data Engineer Cloud / IA F/H

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Python

Rouen, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
SAP AI & Mobile software engineer - 980 F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
ABAP
Big Data

Belgique

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist Alternance (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
Python
SQL

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Analyste Développeur Data / BI H/F

ITEA
Publiée le
Microsoft Power BI

40k-50k €
Saverne, Grand Est
Les missions : Vos missions s’articulent autour de quatre axes majeurs : 1. Architecture et modélisation des données Concevoir, structurer et faire évoluer l’architecture data (modèles dimensionnels, entrepôts de données, data marts). Définir et garantir les standards de qualité, de sécurité et de gouvernance des données. 2. Intégration et gestion des flux de données (ETL) Développer, maintenir et optimiser les flux d’intégration de données avec SSIS et Talend. Assurer la collecte, la transformation et la consolidation des données issues de sources variées (ERP SAP, fichiers plats, API, etc.). 3. Business Intelligence et reporting Concevoir, développer et optimiser des rapports et tableaux de bord sous Power BI à destination des équipes métiers et de la direction. Recueillir et analyser les besoins des utilisateurs afin de proposer des solutions adaptées. Accompagner les utilisateurs dans la prise en main des outils décisionnels. 4. Support, accompagnement et amélioration continue Assurer le support technique et la maintenance des solutions BI existantes. Former les utilisateurs à l’utilisation et à la création de rapports. Participer à la veille technologique et être force de proposition dans l’amélioration continue des outils et des processus.
6662 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous