Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 271 résultats.
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance
CDI

Offre d'emploi
Architecte de domaine DATA (H/F)

LOMEGARD
Publiée le
Data governance
TOGAF

3 ans
40k-45k €
400-650 €
Pays de la Loire, France
Dans le cadre d’une activité d’architecture de domaine, nous recherchons un(e) Architecte de domaine DATA pour intervenir au sein d’une équipe d’architectes fonctionnels d’envergure nationale (environ une vingtaine de personnes), répartie sur plusieurs sites en France. La mission s’inscrit dans un contexte de transformation des systèmes d’information , au sein d’un grand groupe du secteur assurance / services , avec des enjeux forts autour de la gouvernance des données et des architectures Data . En tant qu’ Architecte de domaine DATA , vous interviendrez comme référent architecture auprès du domaine DATA et serez notamment en charge de : Être l’interlocuteur(trice) architecte du domaine DATA pour accompagner sa transformation Accompagner les projets du domaine dès les phases d’études de faisabilité Proposer et comparer des scénarios d’architecture IT Contribuer à la connaissance du domaine via la modélisation et la cartographie Garantir la qualité et la cohérence des référentiels d’architecture Dans le cadre des accompagnements études / projets, vous serez amené(e) à : Réaliser des travaux de modélisation sur les différents plans d’architecture : Métier Fonctionnel Applicatif Technique Rédiger des dossiers d’architecture permettant d’éclairer les choix Présenter ces dossiers en comités d’architecture Décliner l’architecture retenue en phase projet, en coordination avec : Les équipes métiers Les autres domaines IT La sécurité L’intégration en production Dans votre rôle transverse, vous assurerez également : La production et la mise à jour des cartographies d’architecture du domaine DATA La qualité et la conformité de la documentation dans les référentiels d’entreprise
CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Deep Learning
Docker
Git

45k-55k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist H/F

█ █ █ █ █ █ █
Publiée le
Apache Spark
Deep Learning
Elasticsearch

Pau, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
BUSINESS ANALYST TECHNIQUE - RAG/ IA GENERATIVE

SMILE
Publiée le
Data science
IA Générative
RAG

6 mois
Paris, France
Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du groupe. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein d'Assets IA, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Missions principales : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. • Suivre la production afin de garantir la satisfaction du client.
Freelance

Mission freelance
Chef de projet - Data Management / Framework

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🚀 Mission Freelance - Business Analyst Data (H/F) - Paris - Longue mission Nous recherchons un Business Analyst Data confirmé pour Construire une approche et planning afin de se mettre en conformité vis a vis du framework Data Management Control Standard (DM CS) et End User Computing Control standard (EUC CS) Contrainte forte du projet : Connaissance et experience dans l'implementation des disciplines DAMA : Data Governance, Data Quality, Data Traceability, Risk Reporting. Connaissance experience de la Directive BCBS 239 est une atout majeur. Connaissance de la gestion des applications EUC d'un point vu Data Management. Les livrables sont Frameworks DM CS et EUC CSderivés pour la France Approche, Roadmap, status de l'implementation, Reporting local global. 🎯 Votre rôle Activités principales attendues de la mission : - Gap analysis as-is versus nouvelle version des policies DM CS et EUC CS incluant les issues ouvertes relatives à ces deux standards - Definition des policies en application au scope et au contexte local - Accompagnement des métiers (Communication / Training) - Identification des gaps et plan d'action de remediation inscrit dans une roadmap - Execution des roadmaps, suivi et reporting de la mise en conformité à ces deux policies - Execution et coordinations des cycles de tests des controls definis dans les policies (Test of Design/ Test of Effectiveness) 🛠️ Compétences requises SQL (confirmé) Data modelling Data Governance, Data Quality, Data Traceability, Risk Reporting Connaissance BCBS 239 EUC Management Anglais professionnel & français courant 📅 Modalités Démarrage : 9 mars 2026 Fin : 31 décembre 2026 Rythme : 2 jours / semaine sur site Lieu : Paris Type : Assistance technique - Freelance 👉 Si vous êtes un expert Data avec une forte orientation conformité & gouvernance, cette mission est faite pour vous !
Freelance
CDI
CDD

Offre d'emploi
Data Scientiste GPS/SIG

Freelance.com
Publiée le
GPS
Python

1 an
40k-80k €
400-600 €
Issy-les-Moulineaux, Île-de-France
Profil : Data scientiste GPS/SIG Séniorité : + 7 ans Lieu de mission : Paris 15 Date démarrage souhaitée : 16/03 Durée mission : 1 an Objet et description de la mission : Expertise Data scientiste Modélisation compétence SIG Le projet vise à construire un découpage territorial en secteurs géographiques équilibrés en termes de durée de distribution et de taille. Un modèle prédictif est développé pour estimer la durée de distribution de chaque secteur à partir d’indicateurs routiers, géospatiaux et fonctionnels. Des données GPS historiques permettent de reconstruire la durée réelle de couverture des secteurs. Ces données ne seront cependant pas disponibles à l’inférence. L’enjeu est donc d’extraire, à partir des traces GPS, des indicateurs structurels et stables caractérisant chaque secteur, utilisables en production. Objectif : Extraire et formaliser des features géospatiales robustes à partir de traces GPS. - Concevoir et entraîner un modèle prédictif de durée de distribution par secteur. - Garantir la stabilité temporelle et spatiale des indicateurs. - Structurer une méthodologie réplicable et documentée Compétences recherchées (non exhaustive) : Connaissance des systèmes d’information géographique (SIG). - Analyse de réseaux routiers (graphes, accessibilité, centralité, etc...). - Manipulation avancée de données spatiales (points, lignes, polygones, multi-géométries). - Expérience en analyse territoriale et optimisation de découpages géographiques. - Bonne compréhension des enjeux logistiques et de mobilité. - Expertise en modélisation statistique et machine learning supervisé. - Feature engineering avancé sur données spatio-temporelles. - Évaluation de la robustesse, de la stabilité et de l’importance des variables. - Maîtrise des problématiques de généralisation, de biais et de data leakage
Freelance

Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)

TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks

6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
CDD
CDI
Freelance

Offre d'emploi
Data Analyst Lyon (H/F)

TimTek
Publiée le
Microstrategy
PowerBI

1 an
Lyon, Auvergne-Rhône-Alpes
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 40 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Lyon. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Freelance

Mission freelance
ARCHITECT DATA / URBANISTE

HAYS France
Publiée le
API
BI
Data governance

1 mois
Grand Est, France
Dans le cadre d’un renfort sur ses projets de transformation digitale, notre client recherche un(e) Architecte Data / Urbaniste afin d’intervenir sur un périmètre stratégique lié à l’évolution de son architecture d’entreprise. Vous serez chargé(e) d’évaluer l’architecture data existante, d’identifier les axes d’amélioration et de proposer une vision cible permettant d’optimiser la qualité, la structuration et la valorisation du gisement de données. Votre rôle consistera notamment à analyser les sources actuelles, proposer l’intégration de nouvelles données, améliorer les mécanismes de gouvernance et contribuer à la valorisation des données pour les usages BI, API, reporting et datamesh. Vous interviendrez également sur la mise en place, la gestion et la structuration des métadonnées pour préparer des cas d’usage orientés intelligence artificielle. En lien direct avec les équipes data, techniques et métiers, vous contribuerez aux orientations d’urbanisation du SI et à la cohérence globale de la plateforme data, tout en apportant vos recommandations pour soutenir les enjeux de scalabilité et de performance. Rythme 80% TT possible.
CDI

Offre d'emploi
Tech Lead DATA & IA

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France
Tech Lead Data & IA Infogene Neuilly-sur-Seine, Île-de-France, France (Sur site) Tech Lead Data & AI Bâtissez la pratique IA d’un groupe industriel Infogene - Groupe Vulcain Construisez l’IA qui compte Infogene, filiale digitale du Groupe Vulcain (850 collaborateurs, 90M€ CA), déploie des solutions d’intelligence artificielle pour les leaders de l’énergie, du nucléaire, du pharmaceutique et des infrastructures critiques. Notre pratique IA est jeune, ambitieuse, et en pleine structuration. Nous cherchons le Tech Lead qui en deviendra le pilier opérationnel : transformer une équipe de 4 en une force de frappe de 8+, industrialiser nos plateformes, et faire le lien entre vision stratégique et réalité du terrain. Vos missions Pilotage technique (60%) • Architecturer et maintenir les plateformes IA internes : infrastructure Docker, PostgreSQL, CI/CD, Linux • Garantir la qualité technique : revues de code, bonnes pratiques, choix d’outillage • Gérer les environnements d’inférence LLM et les bases vectorielles (vLLM, Ollama, Qdrant, ChromaDB) • Fiabiliser et automatiser les pipelines de déploiement et les workflows (n8n) Management & Delivery (40%) • Encadrer et faire grandir l’équipe (4 aujourd’hui, 8+ à horizon 12 mois) • Piloter les projets en Agile/ACTE (méthodologie Infogene) sur Jira et Confluence • Chiffrer pour convaincre : estimer la charge des projets (J/H), structurer les lots, identifier les risques et produire les plans de livraison qui alimentent les propositions commerciales • Coordonner avec le CAIO : priorisation, roadmap, allocation des ressources Projets en cours • PEPPER : plateforme data consolidant les outils internes du groupe (Boond, MyActivity, SAGE…) • Jarvis : solution IA de traitement automatique de comptes-rendus de réunion
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
CONSULTANT(E) TECHNIQUE SALESFORCE

PROPULSE IT
Publiée le
Salesforce Sales Cloud

24 mois
275-550 €
Paris, France
Pour un démarrage immédiat de mission longue chez l'un de nos clients à Paris, nous recherchons en urgence un(e) Développeur / intégrateur expérimenté sur Salesforce Les livrables sont : Packages/Change Sets conformes Documentation technique Documentation fonctionnelle Compétences techniques : Salesforce - Confirmé - Impératif Compétence Lightning - Confirmé - Impératif Connaissances Service Client - Confirmé - Serait un plus Connaissances Ventes - Confirmé - Serait un plus Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Secondaire) Description détaillée : Compréhension du besoin Diagnostic des anomalies Proposition de correctifs/solutions techniques Suivi des bonnes pratiques Salesforce Connaître le "Standard" Salesforce Développement de la solution technique (code Apex souhaité) + Développement sous Lightning Réalisation des tests unitaires Préparation des packages de livraison Déploiement des développements sur les différents environnements Salesforce Support sur les développements effectués en production Concepteur-développeur - Analyste fonctionnel - Confirmé
Freelance

Mission freelance
Techlead Data - GCP (H/F)

LeHibou
Publiée le
ETL (Extract-transform-load)
PowerBI
SQL

12 mois
400-520 €
Toulouse, Occitanie
Notre client dans le secteur Aérospatial et défense recherche un/une Data Engineer (H/F) Description de la mission : Dans le cadre d'un besoin de renfort sur ses activités, notre client va rechercher un freelance expérimenté sur la partie Data. Rattaché aux équipes Data en charge de la transformation de la donnée de notre client (8 personnes), vous interviendrez en tant que Techlead data. Ainsi, vous contribuerez aux projets actuels et futurs incluant le chargement des données le DWH : – Données de billetterie et de réservation – Données financières – Données opérationnelles Une bonne communication, autonomie, capacité d’adaptation sont attendues ainsi qu'une capacité à analyser des besoins complexes et à faciliter la coordination au sein de l’équipe ainsi qu’avec les autres parties prenantes (architecte, OPS, métier). Environnement technique : ETL : Powercenter : 20% SQL ( Teradata ) and scripting (BTEQ, shell…) : 50 % Linux : 10% Outils de reporting : SAP BI4 & PowerBI : 20%
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
CDI
Freelance

Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)

xITed
Publiée le
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
3271 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous