Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 015 résultats.
Freelance

Mission freelance
Architecte Data Fonctionnel – Spécialiste Data Product

Ipanema Technology
Publiée le
Azure Data Factory

1 an
600-700 €
Île-de-France, France
Au sein d’une direction data en pleine transformation pour un acteur majeur du conseil et de l’audit, vous rejoignez une équipe stratégique dont l'objectif est de passer d'une gestion de la donnée "support" à une vision "Data as a Product" . En tant qu' Architecte Data Fonctionnel , vous êtes le chef d'orchestre de la valeur. Votre mission consiste à concevoir les fondations des premiers produits data de l'organisation. Vous ne vous contentez pas de dessiner des flux ; vous concevez des actifs de données réutilisables, fiables et à forte valeur ajoutée pour les métiers. Vos principales missions : Conception & Stratégie : Définir l'architecture fonctionnelle des Data Products (modélisation, lignage, interopérabilité) en cohérence avec la stratégie globale. Binôme Product : Travailler main dans la main avec les Product Owners (PO) et Product Managers (PM) pour traduire les besoins business en spécifications techniques actionnables. Gouvernance & Qualité : Garantir que chaque produit respecte les standards de qualité, de sécurité et de conformité, tout en facilitant son adoption par les utilisateurs finaux. Acculturation : Porter la vision "Data Product" auprès des équipes techniques et métiers pour favoriser une culture orientée résultat et efficacité.
Freelance
CDI

Offre d'emploi
Data Architecte - LLMOPS

VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning

1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Alternance

Offre d'alternance
Apprentice BAC 5 Data Scientist & IA H/F

█ █ █ █ █ █ █
Publiée le
Office 365
Python
SharePoint

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Product Owner F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
SQL

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
CDI

Offre d'emploi
Consultant Data Digital - Google Suite / Piano Analytics F/H

Experis France
Publiée le

40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data Digital - Google Suite / Piano Analytics F/H - Niort Le contexte Experis recrute un Consultant Data Digital F/H pour intervenir au sein d'un grand acteur du secteur de l'assurance , dans un environnement digital à forte volumétrie de données. Vous intégrerez une équipe en charge de la collecte, de la transformation et de la restitution des données issues des canaux digitaux, au sein d'une organisation agile fonctionnant en mode SAFe , avec des livraisons régulières et orientées valeur métier. Vos missions Au cœur des enjeux data et reporting, vous interviendrez sur l'ensemble de la chaîne de valorisation des données digitales : Collaborer avec les équipes produit et métier pour définir les objectifs et KPI des features Accompagner la définition des besoins en tracking digital (Piano Analytics / GTM) Recetter les données en phase de test et après mise en production Préparer, transformer et ingérer les données dans BigQuery (Node.js) Mettre à disposition des données fiabilisées dans Looker Studio Participer à l'analyse des données produites et à l'identification d'axes d'amélioration En complément, vous serez amené(e) à : Superviser le bon fonctionnement des flux d'ingestion quotidiens et corriger les anomalies Intégrer de nouvelles sources de données pour le pilotage global des KPI Contribuer à l'amélioration continue des tracking, process et pratiques data Communiquer activement avec les équipes pluridisciplinaires (PO, UX, développeurs, testeurs, architectes)
CDI

Offre d'emploi
Data Scientist Senior IA, NLP, LLM

UMANTIC
Publiée le

60k-70k €
France
LE CONTEXTE DE LA MISSION Nous recrutons un(e) Data Scientist confirmé(e).Vous intégrerez la Cellule Innovation du client, en charge du déploiement de sa feuille de route IA 2026-2027. La mission combine exigence technique pointue (NLP, LLM, MLOps), posture d'innovation pragmatique (POC, MVP, test & learn), et compréhension du contexte institutionnel et réglementaire (AI Act, RGPD, gouvernance des données). VOS MISSIONS Vous interviendrez avec un haut niveau d'autonomie sur deux axes complémentaires : ? Développement opérationnel de solutions IA * Recueil et qualification des besoins métiers, animation d'ateliers de cadrage (design thinking, ateliers data). * Conception fonctionnelle et technique des solutions IA en lien avec la DSI, la sécurité et la conformité. * Développement (POC, MVP) et industrialisation : tableaux de bord avancés, modèles prédictifs, solutions NLP (analyse documentaire, résumé, extraction, LLM), outils d'automatisation et d'optimisation des processus métiers. * Mise en production, monitoring, maintenance évolutive et corrective, support N2 sur les solutions IA. * Intégration des exigences réglementaires (AI Act, RGPD) dès la conception des solutions, dans une approche by design. ? Acculturation et renforcement des capacités IA * Conception de parcours de formation différenciés : initiation/acculturation, utilisateurs avancés, profils techniques. * Animation de formations en français et en anglais, création de supports pédagogiques et démonstrateurs. * Organisation et animation d'événements internes : séminaires, ateliers métiers, hackathons, cafés innovation. * Veille technologique (état de l'art LLM, IA générative, MLOps) et réglementaire (AI Act, lignes directrices CNIL). * Contribution à la structuration d'une communauté IA interne durable.
Freelance

Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake

6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
CDI
Freelance

Offre d'emploi
Tech Lead Data xDI/Python/Snowflake/GCP & CI/CD

OBJECTWARE
Publiée le
CI/CD
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-85k €
400-650 €
Île-de-France, France
Responsabilités principales : Pilotage Technique : - Définir et faire respecter les bonnes pratiques de développements, de versioning et d'industrialisation des flux data - Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements - Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI. - Contribuer à l'amélioration continue des performances et de la stabilité des pipelines Conception et industrialisation : - Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT) - Mettre en œuvre les solutions d'orchestration et d'automatisation - Participer à la migration des flux SAS vers des solutions modernes (ex : Snowflake) - Veiller à la documentation, à la supervision et au monitoring des traitements Encadrement et accompagnement : - Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence - Promouvoir les bonnes pratiques DataOps (CI/CD, test, observabilité, monitoring) - Faciliter les échanges entre les équipes data, architecture, sécurité et métier Gouvernance et qualité : - Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données - Collaborer avec le Data Quality Officer sur les sujets de contrôle d'alerting - Participer à la mise en place de mécanismes de data lineage et de gestion des metadonnées Expérience : Expérience sur des architectures cloud data (idéalement GCP) Expérience confirmée dans l'industrialisation et la mise en production des pipelines data Langages et outils : - Obligatoires : Python, SQL, Spring Batch - Data platform : GCP, Snowflake (bonne connaissance apprécié) - ETL/ELT : XDI - CI/CD & Infra : Gitlab, Docker, Terraform, Kubernetes Architectures : - Architecture Data Moderne (Data Lake/House, Data Mesh, ELT Cloud etc) - Performance et optimisation des flux - Sécurité, gouvernance et qualité des données - Supervision et observabilité
Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
Freelance

Mission freelance
Responsable Intégration ETL & Data Streaming (Talend / Kafka)

Kamatz
Publiée le
Apache Kafka
API
Gitlab

6 mois
La Défense, Île-de-France
Vos missions principales Au sein de l’équipe Architecture & Intégration, vous pilotez les services d’intégration de données autour des technologies Talend (Cloud / plateforme hybridée) et Kafka Confluent Cloud . À ce titre, vous serez en charge de : Maintien en conditions opérationnelles Support, suivi et maintenance des solutions existantes (CRM, Annuaire, PIM) Cadrage & accompagnement des projets Analyse et challenge des besoins métiers Définition des architectures techniques Conception des flux d’intégration Pilotage d’équipe internationale Management d’une équipe basée en Inde (développement, tests, déploiement) Organisation, priorisation et suivi des activités Gestion de projet Élaboration des plans de charge Construction et suivi des plannings Administration des plateformes Supervision et gestion opérationnelle de Talend (incluant On-Prem : upgrades, monitoring, incidents) Administration de Kafka Confluent Cloud Suivi budgétaire Pilotage de la facturation des plateformes Amélioration continue Définition et diffusion des bonnes pratiques (configuration, développement, architecture) Stack technique Talend Data Integration (v8) – Expert Kafka / Confluent Cloud API (JSON, XML, CSV) Java 8+ SQL / Bases de données Linux / Unix GitLab Salesforce (notions)
1015 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous