Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 015 résultats.
CDI
CDD

Offre d'emploi
Data Engineer Big Data / BI 

adbi
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
Freelance

Mission freelance
Data Configurateur

Codezys
Publiée le

12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Freelance
CDI
CDD

Offre d'emploi
Chef de projet MOE DATA (Tableau)

Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software

1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance
CDI

Offre d'emploi
Ingénieur Systèmes Data

VISIAN
Publiée le
Ansible
SQL

1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
Freelance

Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92

Montreal Associates
Publiée le
Apache Kafka
API
Confluence

7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
Freelance

Mission freelance
Data Engineer Principal

Nicholson SAS
Publiée le
Architecture
Data analysis
Data Lake

6 mois
550 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon avec une présence sur site requise trois jours par semaine, ce rôle de Data Engineer Principal s’inscrit dans un contexte exigeant mêlant data engineering et machine learning. Démarrage ASAP pour une mission courant jusqu’au 31 décembre 2026. Au sein des équipes produit, le consultant interviendra sur la conception, la construction et la maintenance du data layer ainsi que des plateformes de données. Il sera responsable de la mise en œuvre d’architectures robustes permettant le traitement et l’analyse de volumes de données importants, en garantissant performance, scalabilité et fiabilité. Le poste implique également la gestion des flux de données et des interfaces associées, avec la création et l’intégration de structures optimisées pour l’exploitation analytique. Une attention particulière sera portée à l’industrialisation et au déploiement d’algorithmes performants, dans une logique d’optimisation continue. Le profil recherché justifie d’au moins 7 ans d’expérience, avec une expertise confirmée en data engineering, architecture data, data management et environnements data lake, ainsi qu’une bonne maîtrise des problématiques machine learning.
Freelance
CDI

Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)

STORM GROUP
Publiée le
AI
Machine Learning
Python

3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
1015 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous