Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 824 résultats.
Freelance

Mission freelance
DATA ENGINEER GCP

PARTECK INGENIERIE
Publiée le
BigQuery
DBT
Docker

6 mois
400-540 €
Hauts-de-Seine, France
Data Engineer Senior – Plateforme Data & IA Rejoignez une équipe Data Platform en pleine construction afin de concevoir et faire évoluer une plateforme de données à grande échelle, au service de projets stratégiques orientés BI, analytics et IA générative. Missions principales Concevoir et développer des pipelines ETL/ELT robustes et scalables pour centraliser et transformer des données multi-sources. Participer à la mise en place de l’architecture Data sur environnement cloud GCP. Développer des traitements performants en Python et SQL, avec une forte culture qualité et automatisation. Préparer et structurer les datasets destinés aux usages IA / LLM. Optimiser les performances des traitements et les coûts d’infrastructure cloud. Mettre en place des mécanismes de monitoring, d’observabilité et de contrôle qualité des données. Participer au déploiement et à la maintenance des infrastructures DataOps / CI-CD. Collaborer avec les équipes techniques et métiers dans un environnement Agile. Profil recherché Bac+5 en informatique / data engineering ou équivalent. Minimum 5 ans d’expérience sur des environnements Data complexes. Très bonne maîtrise de Python (POO) et SQL. Expérience confirmée sur GCP : BigQuery, Cloud Storage, Cloud Run / Functions. Maîtrise de dbt et d’un orchestrateur type Dagster ou Airflow. Bonne connaissance des outils DevOps : GitLab CI, Docker, Terraform. Sensibilité forte aux problématiques de qualité, scalabilité et industrialisation. Intérêt pour les sujets IA générative et modern data stack. Anglais professionnel courant. Environnement technique GCP (BigQuery, GCS, Cloud Run, Vertex AI) dbt, Dagster GitLab CI/CD Docker, Terraform Data multi-sources : CRM, social data, advertising, analytics Conditions Mission longue durée Démarrage : juin 2026 Localisation : région parisienne Télétravail hybride (2 jours/semaine)
Offre premium
Freelance

Mission freelance
Chef de projet Flux/Data

Come Together
Publiée le
Gestion de projet

1 mois
Nord, France
Nous recherchons pour un grand compte de la région un chef de projet flux/data Mission : Pilotage des projets de mise en place de flux de données en provenance de systèmes industriels. Principales tâches de la mission - Accompagner les interlocuteurs métier dans la définition des besoins d’export. - Piloter les projets de mise place de flux DATA en provenance de systèmes industriels en lien avec les experts métiers, les éditeurs de solutions et les équipes IT - Produire l’ensemble des livrables en accord avec la méthodologie Projet du client. - Documenter et industrialiser dans l’équipe RUN afin d’en sécuriser la maintenance.
Freelance
CDI

Offre d'emploi
 Data Scientist – IA (F/H)

K-Lagan
Publiée le
Big Data
Data science
IA

1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet en Data & IA donnait un vrai sens à votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets innovants où la Data et l’Intelligence Artificielle sont au cœur de la transformation des entreprises. Aujourd’hui, nous recherchons un·e Data Scientist – IA (F/H) pour rejoindre l’un de nos clients dans un environnement stimulant et orienté innovation. 🔍 Contexte Vous interviendrez sur des projets à forte valeur ajoutée, visant à exploiter la donnée pour améliorer la prise de décision, automatiser des processus et développer des modèles prédictifs . Vous évoluerez au sein d’équipes pluridisciplinaires dans un environnement agile. 🎯 Missions Concevoir, développer et déployer des modèles de Machine Learning / IA Analyser et exploiter des volumes de données complexes Participer à la définition des cas d’usage Data & IA Mettre en production les modèles et suivre leur performance Collaborer avec les équipes Data Engineering, BI et métiers Assurer la qualité, la robustesse et la fiabilité des modèles Contribuer à l’ amélioration continue des solutions IA
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
Algorithmique
Keras
Large Language Model (LLM)

3 ans
350-400 €
Île-de-France, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance

Mission freelance
QA Data

Cherry Pick
Publiée le
Azure
Databricks

12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Freelance

Mission freelance
DATA ARCHITECT (Expert)

HAYS France
Publiée le
Collibra
Data governance
KPI

3 ans
100-600 £GB
Lille, Hauts-de-France
ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme HRDP (Ressources Humaines): Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Data Engineer/Analyst GCP

Deodis
Publiée le
Google Cloud Platform (GCP)

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission sur site Aix en Provence, télétravail 2 jours / semaine Contexte : Renforcement d'une équipe projet chargée de migrer des rapports Power BI et des flux SSIS vers GCP Description: • Migrer les flux de données SSIS existants vers des pipelines GCP orchestrés avec Cloud Composer (Airflow) • Réécrire et industrialiser les transformations de données avec dbt sur BigQuery • Collaborer à la migration des rapports Power BI et à l'adaptation des modèles de données sous-jacents • Garantir la qualité des données : tests, documentation, lineage dbt • Contribuer à la modélisation et à l'architecture du data warehouse BigQuery • Travailler en mode agile avec les équipes métier et data pour prioriser les flux à migrer
CDI
Freelance

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch

1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
CDI

Offre d'emploi
Consultant BI / Data ingénieur confirmé H/F

CONSORT GROUP
Publiée le
Ansible
Jenkins
PL/SQL

Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant BI / Data ingénieur confirmé H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data, la BI et les architectures décisionnelles modernes ? Ce poste est fait pour vous. En tant que Consultant BI / Data Engineer confirmé, vous êtes responsable de la conception, de l’évolution et du maintien en conditions opérationnelles de notre écosystème décisionnel. Analyser les besoins fonctionnels et techniques des métiers Localiser et qualifier les données nécessaires Concevoir, modéliser et enrichir les datawarehouses et datamarts Développer les processus d’intégration de données (ETL / pipelines Big Data) Traiter et nettoyer les données, garantir leur qualité Participer à la migration vers le cloud, ( Databricks ) Développer et optimiser des traitements Spark Produire des rapports et tableaux de bord lisibles pour les métiers Accompagner et former les utilisateurs dans l’exploitation des données et des rapports Tester, documenter, déployer et maintenir les livrables en conditions opérationnelles Participer aux revues de code et à l’amélioration continue de l’architecture décisionnelle C’est votre parcours Minimum 5 ans d’expérience sur des fonctions BI / Data Engineer / Ingénieur Décisionnel Très bonne maîtrise de SQL Solide expérience en modélisation d’entrepôts de données (DWH, datamarts) Compétences avérées en traitement et nettoyage de données Maîtrise de Spark indispensable Expérience en accompagnement métier : ateliers, recueil de besoins, formation, support Bon niveau de développement (Spark, SQL, idéalement Python et/ou Java en plus) C’est votre expertise : Big Data : Spark (essentiel), Hive, Indexima Cloud / Data Platform : Databricks (fort enjeu de migration) Stockage : Oracle, CEPH S3 (parquet) Langages : SQL, Python, PL/SQL, Shell, Java (plus apprécié mais pas obligatoire) ETL : Informatica Dataviz : Tableau Server CI/CD & outillage : Git, Jenkins, Ansible, Terraform Ordonnancement : Control-M Méthodologie : environnement agile C’est votre manière de faire équipe : Autonomie, rigueur, sens de la qualité Esprit d’équipe, bonnes capacités de communication Curiosité, envie de comprendre le métier et les usages data Capacité d’analyse et de synthèse Force de proposition sur les solutions techniques et décisionnelles C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybrid Salaire : De 44000 € à 49000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Engineer Expert IICS - Bordeaux

WorldWide People
Publiée le
Informatica Cloud (IICS)
Snowflake

6 mois
430-500 €
Bordeaux, Nouvelle-Aquitaine
Senior/expert IICS 5 à 10 ans d’expérience Anglais obligatoire o Data Engineering, mission en autonomie o expertise IICS/ Snowflake o Mission Tech lead o Langue de la mission : anglaise la plupart du temps et française · Démarrage immédiat Data Engineer Expert IICS / Snowflake o Data Engineering, mission en autonomie o expertise IICS/ Snowflake o Mission Tech lead o Langue de la mission : anglaise la plupart du temps et française · Démarrage immédiat
CDI
Freelance

Offre d'emploi
Data Engineer Confirmé / Senior

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch

1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
CDI

Offre d'emploi
Data Designer

CAT-AMANIA
Publiée le
Confluence

Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Freelance

Mission freelance
Business Analyst Data - Flux Transactionnels Bancaires

STHREE SAS
Publiée le

12 mois
75001, Paris, Île-de-France
Business Analyst Data - Flux Transactionnels Bancaires (H/F) Localisation : Paris Type de mission : Freelance Démarrage : ASAP Durée : Long terme Secteur : Banque Contexte Dans le cadre d'un projet stratégique, nous recherchons un Business Analyst Data pour intervenir sur des problématiques liées aux flux transactionnels bancaires et aux données clients , dans un environnement à forts enjeux opérationnels. Missions principales Analyse des flux transactionnels bancaires (bout-en-bout) Suivi des délais de traitement et indicateurs de performance (SLA, T+X) Rédaction des spécifications fonctionnelles data Mapping et analyse des données clients et flux de données Participation aux phases de recette fonctionnelle (UAT) Analyse et résolution des anomalies en production (RUN) Coordination avec les équipes métiers, IT et data Profil recherché Expérience confirmée en tant que Business Analyst Data en environnement bancaire Expérience sur des flux transactionnels (paiements, cash management, virements, etc.) Bonne maîtrise de SQL (analyses et contrôles de données) Bonne compréhension des problématiques de qualité des données Expérience en environnement DataLake (vision fonctionnelle attendue) Capacité à intervenir en BUILD et RUN 👉 Anglais conversationnel professionnel indispensable Compétences appréciées (fortement valorisées) Reverse engineering Data protection Data governance / data management Connaissance d'un core banking (type SAB ) Maîtrise des concepts : Conceptual Data Model Logical Data Model Physical Data Model Compétences requises Analyse fonctionnelle Data mapping / data quality SQL UAT / Recette Analyse d'incidents Flux transactionnels bancaires Non retenu pour ce poste Profils orientés crédit / risque / réglementaire Profils BI / reporting uniquement Profils data engineer / architecte Informations complémentaires Environnement exigeant avec forte volumétrie de données Interaction transverse métiers / IT / Data Mission avec impact direct sur les opérations bancaires
Freelance

Mission freelance
Data Engineering (IA/ML)

Deodis
Publiée le
MLOps

1 an
650 €
Île-de-France, France
Le poste consiste à intervenir en tant qu’expert senior en Data Engineering spécialisé en IA/ML au sein d’un environnement Big Data et cloud à forte volumétrie. La mission porte sur l’optimisation, l’industrialisation et la montée en charge de plateformes Data et IA utilisant notamment Spark, Kubernetes, Dagster et Trino. Le profil recherché doit être capable d’améliorer les performances des pipelines de données, structurer les pratiques techniques, accompagner les équipes Data Science et développement, mettre en place des solutions de monitoring et de scalabilité, ainsi que participer à des projets d’innovation autour des architectures Data/IA et des outils MLOps.
1824 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous