Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 192 résultats.
CDI

Offre d'emploi
PRODUCT OWNER / SCRUM MASTER DATA CONFIRME H/F

Savane Consulting
Publiée le

55k-70k €
Paris, France
Contexte du poste : Nous recherchons un Product Owner / Scrum Master afin d’intégrer la DSI de notre client, un acteur majeur du transport public et de la mobilité urbaine. Au sein de la Fabrique Digitale, et plus particulièrement de l’unité Data, vous interviendrez sur une plateforme d’échange permettant de standardiser les flux de données entre les différents systèmes de l’entreprise. Vous évoluerez dans un environnement multi-équipes et multi-projets, en forte interaction avec les équipes métiers, data et techniques, afin d’assurer la cohérence et la performance des solutions mises en place. Missions principales : Assurer le rôle de Product Owner (gestion et priorisation du backlog, rédaction des user stories et critères d’acceptation) Animer les rituels Agile en tant que Scrum Master (daily, sprint planning, rétrospectives) Piloter plusieurs équipes en parallèle et assurer la coordination transverse Recueillir, analyser et formaliser les besoins métiers Arbitrer entre valeur métier, faisabilité technique et charge Suivre l’avancement des projets, les risques et la qualité des livrables Accompagner les projets dans l’intégration avec la plateforme d’échange Contribuer au maintien en conditions opérationnelles des applications (RUN)
Freelance
CDI
CDD

Offre d'emploi
Data Engineer(H/F)

QODEXIA
Publiée le
Apache Spark
Azure
Databricks

10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
POT9149 - Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc

Almatek
Publiée le
Dataiku

6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI

Offre d'emploi
Technicien Proximité Telecom Datacenter

VISIAN
Publiée le
LAN
Réseaux

1 an
Île-de-France, France
Contexte Réalisation des gestes de proximité Telecom en Datacenter avec déplacements possibles inter-DCs, travail en heures non ouvrées (HNO), astreintes potentielles. Mission à réaliser dans l'est parisien. Missions Réaliser du câblage LAN (étude, réalisation, validation) Réaliser du câblage SAN (étude, réalisation, validation) Réaliser testing liens fibre, cuivre : photométrie, réflectométrie Lire et comprendre un plan de frettage Comprendre les plans d'urbanisation réseau d'un Datacenter Connaître les différentes technologies fibre optique (FO) Savoir configurer des cartes type IDRAC, ILO Réalisation des gestes de proximité Telecom en Datacenter
Freelance

Mission freelance
POT9143 - Un Ingénieur Technique Système et Réseaux Sur Ecully

Almatek
Publiée le
Réseaux

6 mois
Écully, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients , Un Ingénieur Technique Système et Réseaux Sur Ecully. L'Ingénieur Technique Système et Réseau assure un rôle d'information, de formation et d'alerte, Il peut intervenir directement sur l'ensemble ou une partie d'un projet relevant de l'expertise réseau, système et sauvegarde. Il effectue la veille technologique, les études de l'infrastructure ainsi qu'à la qualification des plates-formes. Anglais: courant Almatek recherche pour l'un de ses clients , Un Ingénieur Technique Système et Réseaux Sur Ecully. L'Ingénieur Technique Système et Réseau assure un rôle d'information, de formation et d'alerte, Il peut intervenir directement sur l'ensemble ou une partie d'un projet relevant de l'expertise réseau, système et sauvegarde. Il effectue la veille technologique, les études de l'infrastructure ainsi qu'à la qualification des plates-formes. Anglais: courant
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
CDI

Offre d'emploi
Data Analytics Engineer Senior F/H

ASTRELYA
Publiée le
Apache Airflow
BigQuery
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Data Analytics Engineer Senior, vous interviendrez au cœur des enjeux de modélisation analytique, de structuration de data products et de valorisation des données dans un contexte Risques (liquidité). Vous jouerez un rôle clé dans la transformation des données transactionnelles en modèles analytiques robustes, performants et exploitables par les équipes Risques, Finance et Data. Concrètement, vous allez : · Dé‑normaliser les transactions et les transformer en modèle en étoile adapté aux usages analytiques. · Concevoir et structurer un data product permettant le partitionnement et le clustering selon les axes d’analyse métiers. · Collaborer étroitement avec les équipes Risques pour comprendre les enjeux de liquidité, les indicateurs clés et les contraintes réglementaires. · Mettre en place des pipelines de transformation fiables, documentés et industrialisés. · Garantir la qualité, la performance et la gouvernance des données exposées. · Contribuer à l’amélioration continue des workflows DataOps et des bonnes pratiques d’ingénierie analytique. · Participer à la définition des standards de modélisation et d’architecture analytique au sein de l’équipe. Votre futur environnement technique : • Google Cloud Platform • BigQuery – entrepôt de données & moteur analytique • DBT – transformation & modélisation analytique • Airflow – orchestration • DataProc – traitements distribués • Cloud SQL – stockage & bases relationnelles • DataOps, CI/CD, bonnes pratiques d’ingénierie analytique
Freelance
CDI

Offre d'emploi
Data Analyst Sur Le Havre

EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik

3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
CDI

Offre d'emploi
Ingénieur systèmes linux H/F

VIVERIS
Publiée le

40k-50k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans un contexte d'innovation autour de l'intelligence artificielle et du calcul intensif, vous intervenez sur une infrastructure IT hybride combinant systèmes d'information classiques et plateformes HPC (High Performance Computing). Au sein d'une équipe à taille humaine, vous participez à l'exploitation, au maintien en conditions opérationnelles et à l'évolution d'environnements techniques complexes, intégrant notamment des clusters GPU. Vous évoluez dans un environnement exigeant, couvrant des périmètres variés tels que les systèmes Linux, le stockage, la virtualisation, le réseau et l'automatisation. Responsabilités : - Assurer l'exploitation, la performance et la sécurité des infrastructures (serveurs, HPC, stockage, virtualisation), tout en contribuant à leur évolution ; - Participer à la supervision (monitoring, gestion des incidents) et à l'automatisation des opérations afin d'améliorer la fiabilité des systèmes ; - Collaborer avec l'équipe et apporter un support technique avancé aux utilisateurs internes.
Freelance

Mission freelance
Ingénieur réseaux et télécom (F/H)

CELAD
Publiée le

1 an
300-380 €
Nanterre, Île-de-France
Contexte Dans le cadre d’une mission chez l’un de nos clients dans le secteur de l’assurance, nous recherchons un Ingénieur réseaux et télécom à forte dimension terrain et technique, capable d’intervenir sur des environnements multisites exigeants. Vous évoluez au cœur des opérations IT, en lien avec les équipes projets, techniques et logistiques, afin de garantir la fiabilité, la performance et la conformité des infrastructures. Voici un aperçu détaillé de vos missions : Assurer le bon fonctionnement des environnements IT dans le respect des processus ITIL Veiller au respect des procédures d’accès aux locaux techniques informatiques Maintenir à jour en temps réel le référentiel de câblage Accompagner les intervenants IT sur site lors des déploiements et des incidents Assurer la communication et le reporting auprès des clients et fournisseurs Assister les chefs de projets sur les périmètres tertiaire et datacenters Déployer physiquement les équipements IT dans les locaux techniques Intervenir sur des infrastructures de câblage CFO/CFA dans des environnements complexe Participer à la conception, la recommandation et la validation de solutions techniques Collaborer avec les équipes IT et logistiques pour qualifier les besoins Optimiser les infrastructures pour garantir performance et disponibilité Contribuer à l’estimation technique des projets Rédiger les cahiers des charges et la documentation technique Produire les dossiers d’exploitation et assurer la mise en supervision des équipements Suivre les déploiements et accompagner les équipes sur le terrain
Freelance

Mission freelance
INGENIEUR NETDEVOPS / AUTOMATISATION RESEAU - H/F - 93 + remote

Mindquest
Publiée le
Ansible
Docker
Linux

1 an
500-550 €
Saint-Denis, Île-de-France
Mon client recherche un Ingénieur NetDevOps / automatisation réseau pour une mission freelance à Saint-Denis (93). 1. Contexte Dans un environnement NetDevOps , la mission vise à renforcer l’automatisation et l’industrialisation des infrastructures réseau. L’objectif est d’améliorer l’efficacité opérationnelle via des outils d’automatisation, de monitoring et de gestion d’inventaire, dans une logique d’amélioration continue et de standardisation des pratiques. 2. Mission Le/la consultant(e) intervient sur l’automatisation et l’exploitation des infrastructures réseau : Développement de playbooks Ansible et gestion de l’orchestration via AWX Développement de scripts Python pour l’automatisation et l’intégration d’API réseau Administration et optimisation d’environnements Linux Gestion de l’inventaire et IPAM avec Netbox et intégration aux outils d’automatisation Mise en place de solutions de monitoring et de logs avec Vector et Grafana Contribution à l’industrialisation des déploiements réseau et des workflows d’exploitation Déploiement et conteneurisation des outils sur AWS / EKS avec Docker
Freelance

Mission freelance
Architecte Réseau et Sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Architecte Réseau et sécurité Datacenter. Le client souhaite renforcer son équipe par un architecte réseau et sécurité Datacenter, afin de l'assister dans la conception, mise en oeuvre et industrialisation réseau au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique sur les technologies réseau & sécurité Les compétences techniques attendues sont les suivantes : - Expertise réseaux LAN : Cisco Fabric Path/VxLAN, - Expérience Système : Redhat linux 8, Windwos 2019 - Expériences en études et déploiement de réseaux Telecom Les compétences fonctionnelles attendues sont les suivantes : - Conception des architectures et expertise - Rédaction/ Enrichissement de base de connaissances - Reporting de l'activité projet au management
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Tech Lead Data & Viz - Oxygen

emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake

3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
5192 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous