Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 914 résultats.
Freelance

Mission freelance
Data scientist IA Générative

MLMCONSEIL
Publiée le
IA Générative
Python

1 an
100-480 €
Paris, France
Recherche d’un Data Scientist senior (5 à 10 ans d’expérience) avec une expertise confirmée en IA générative, notamment sur des cas d’usage basés sur RAG. Le profil devra maîtriser Python ainsi que les outils de l’écosystème GenAI tels que LangChain, Hugging Face et les bases vectorielles. . . . . . . . .. . . . . . . . .. . . . . .
Freelance
CDI

Offre d'emploi
📩 Data Scientist Confirmé – Computer Vision

Gentis Recruitment SAS
Publiée le
CI/CD
Computer vision
Docker

6 mois
40k-45k €
400-600 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une première version (V0) d’une solution de détection pour des applications dans le secteur naval, notre client, acteur industriel majeur dans le domaine de la défense et des technologies, recherche un Data Scientist Senior spécialisé en Computer Vision . Le projet porte sur l’analyse d’images et de flux vidéo avec des enjeux forts de précision, de robustesse et de mise en production rapide. Missions Participer au cadrage fonctionnel et technique avec les équipes métiers Concevoir et développer des modèles de Computer Vision (détection, reconnaissance, identification) Développer, entraîner et valider des modèles Machine Learning / Deep Learning Assurer le déploiement et le cycle de vie des modèles (MLOps) Contribuer activement à la livraison d’une V0 dans un environnement en sprint court Animer des workshops techniques avec les équipes projet (PO, DevOps, Architectes, Développeurs) Garantir la qualité, la performance et la maintenabilité des solutions développées
Freelance
CDI

Offre d'emploi
Data scientist Senior

VISIAN
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
Python

1 an
Paris, France
Contexte Dans le cadre des projets IT Innovation, vous intégrerez l'équipe AI Factory/Innovation en tant que Data Scientist Senior avec une double mission stratégique : veille technologique et développement de modèles IA. Vous serez le référent technique sur les nouvelles approches IA/ML (LLMs, nouvelles architectures, techniques émergentes). Vous évaluerez la faisabilité technique des use cases métiers, benchmarkerez les solutions du marché (vendors, open-source) et réaliserez des quick POCs (2-3 jours) pour valider des hypothèses avant investissement. Vous concevrez et développerez les modèles ML/DL pour les use cases retenus, du choix des algorithmes à l'optimisation finale. Vous réaliserez des prototypes rapides (POC en 2-4 semaines) et accompagnerez un Data Scientist junior dans sa montée en compétences. Expert en vibe coding, vous utilisez les outils d'IA générative (GitHub Copilot, Cursor, Claude, ChatGPT) pour accélérer l'exploration de données, le prototypage de modèles, la génération de code d'analyse et la documentation, tout en gardant un esprit critique sur les résultats. Vous travaillerez en mode agile en proximité avec les équipes métier Products & Innovation, les développeurs IA, les architectes et les autres Data Scientists. La mission se déroule dans un contexte anglophone, la maîtrise de l'anglais est obligatoire.
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance

Mission freelance
Tech Lead Data

Nicholson SAS
Publiée le
Azure
Databricks
Python

9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL 👤 Profil recherché Tech Lead Data / Data Engineer senior Expérience : 7 ans minimum Solide expertise sur Databricks et les architectures data modernes Expérience dans des environnements legacy type SAP BW appréciée Capacité à accompagner une transformation technique et culturelle 🤝 Soft skills Leadership naturel et capacité à fédérer Excellente communication avec des interlocuteurs techniques et métiers Esprit structurant et orienté solutions Pédagogie et accompagnement des équipes 💡 Mission à fort impact avec une dimension stratégique et un rôle clé dans la transformation data.
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Numpy
Python

Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyst sur Aix-en Provence

EterniTech
Publiée le
Hadoop
Python

1 an
400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Je recherche pour un de mes clients un Data Analyst sur Aix-en Provence CONTEXTE DE LA MISSION : Le client dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe sur le site d'Aix-en-Provence. Le profil aura pour mission de mettre en œuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'étudier leur cohérence et leur impact dans les processus métiers sensibles. DESCRIPTION DE LA MISSION Définition des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire - Définition de la prestation attendue : - Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en œuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données (ciblage, analyse de donnée ou prédiction) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
CDI
Freelance

Offre d'emploi
Ingénieur Big Data

OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD

3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
CDI
Freelance

Offre d'emploi
Lead Data Engineer Dataiku & Python

OBJECTWARE
Publiée le
Dataiku
Python

3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance
CDI

Offre d'emploi
Expert NiFi (H/F)

OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps

2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Freelance

Mission freelance
Data Engineer GCP

Nicholson SAS
Publiée le
Apache Airflow
BigQuery
CI/CD

18 mois
450 €
Saint-Ouen-sur-Seine, Île-de-France
Bonjour, Dans le cadre d’un projet stratégique pour notre client, nous recherchons un Data Engineer GCP sénior pour rejoindre les équipes DST DataLab . Contexte de la mission: Vous interviendrez au sein d’une équipe data engagée dans la construction et l’optimisation de chaînes de traitement et d’intégration de données sur l’environnement Google Cloud Platform . La mission s’inscrit dans un contexte de structuration et de fiabilisation des flux de données , avec un fort enjeu autour de la qualité, de la performance et de la gouvernance. Informations pratiques: Localisation : Saint-Ouen-sur-Seine Présence sur site : 2 à 3 jours par semaine (obligatoire) Démarrage : 20 avril 2026 Fin de mission : 31 décembre 2027 TJM maximum : 450 € Missions: Concevoir et développer des pipelines de traitement de données sur GCP Mettre en place et maintenir des chaînes d’intégration et de transformation de données Travailler sur l’optimisation et la structuration des bases de données analytiques Participer aux choix d’architecture et aux bonnes pratiques de développement Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, architecture et métiers Stack technique: Compétences requises GCP Dataform (prioritaire) ou DBT BigQuery SQL (maîtrise avancée) Python Apache Airflow CI/CD Google Cloud SQL Google Cloud Run Compétences appréciées: Architecture applicative Expérience autour des APIs, IHM et exposition de données Expérience avec Cloud Run / Cloud SQL ou Kubernetes (JKS) Profil recherché: Data Engineer avec 5 ans d’expérience minimum Solide expérience sur les environnements data cloud Capacité à travailler dans un cadre structuré avec des méthodes de développement rigoureuses Excellentes soft skills : communication, autonomie, esprit d’équipe et sens de l’organisation
Freelance

Mission freelance
Data Engineer-Scientist AWS

INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)

3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
Freelance

Mission freelance
Data Engineer - Lille

ICSIS
Publiée le
Apache Kafka
CI/CD
DBT

2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision sur Alsace

EterniTech
Publiée le
Computer vision
Data science
Vertex AI

3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
914 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous