Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 490 résultats.
CDI

Offre d'emploi
Chargé de Data RH F/H

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Oracle Database

Sotteville, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyst Tibco / MDM (Niort)

Cherry Pick
Publiée le
Atlassian
Confluence
Data analysis

12 mois
470-500 €
Niort, Nouvelle-Aquitaine
Au sein de la direction Data Solutions & Intelligence Artificielle de notre Client à Niort : Data Solutions : collecte, structuration, traitement et diffusion des données pour les métiers Intelligence Artificielle : développement d’usages responsables et performants au service des clients et collaborateurs Dans le cadre du projet (référentiel unique Personne), l’équipe souhaite renforcer son pôle études / cadrage / maturation en amont des développements. 🚀 Objectifs de la mission Analyser les évolutions à venir sur le référentiel Réaliser les études d’impact sur les composants du SI Participer au cadrage fonctionnel et technique Préparer les sujets avant transmission à l’équipe de réalisation 🛠️ Activités principales Étudier les besoins métiers et les traduire en exigences data Réaliser les analyses d’impact multi-systèmes Produire les livrables de cadrage : Spécifications fonctionnelles et techniques Schémas d’architecture et de flux Supports de présentation Collaborer avec les équipes : Data IT Métiers Participer aux échanges et suivi via les outils Agile ⚙️ Environnement technique APIs & middleware : TIBCO MDM : Informatica MDM Data Quality : Informatica Data Quality Base de données : MongoDB Traitements : Java Outils collaboratifs : Jira / Confluence (Atlassian) 📦 Livrables attendus Dossiers d’étude d’impact Spécifications détaillées Schémas d’architecture et flux Présentations de cadrage pour validation
Freelance
CDI

Offre d'emploi
Développeur Data (Foundry) et Fullstack (Python, Typescript)

CAT-AMANIA
Publiée le
Data Engineering
Python
SQL

1 an
58k-60k €
490-500 €
Paris, France
Nous recherchons un profil Data / Full Stack sur la plateforme Foundry de Palantir, pour mettre en place de nouveaux dispositifs data‑centrés visant à répondre aux enjeux réglementaires LCB‑FT (Lutte contre le Blanchiment des Capitaux et le Financement du Terrorisme). Mise en œuvre d’applications d’investigation et traitement d’alertes dans une équipe de développement en montée en compétence sur une plateforme Foundry de chez Palantir. Comprendre rapidement l’écosystème Foundry existant Reprendre un existant, rétro-ingénierie, corrections, améliorations Maintenir et faire évoluer les pipelines de données Pipelines ETL / data workflows Développer ou adapter des workshops Foundry Applications et écrans métier complexes orientés analystes (investigation, suivi des alertes, reporting Assurer la fiabilité, la lisibilité et la maintenabilité des traitements Collaborer étroitement avec les équipes data et métier assurance Assurer avec l’équipe le suivi Run/MCO
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Freelance

Mission freelance
Data Ingénieur Senior

Hexagone Digitale
Publiée le
Agile Scrum
Apache Airflow
Apache Spark

3 mois
400-600 €
Paris, France
Contexte de la mission La Direction du Numérique dispose d'une Direction Data dont l'objectif est de faire de la donnée un levier de croissance des offres numériques. Ses activités couvrent la maximisation de la collecte de données dans le respect des réglementations en vigueur, le développement de la connaissance et de l'expérience utilisateur, ainsi que la mise à disposition d'outils de pilotage et d'aide à la décision. La prestation s'inscrit au sein de l'équipe Bronze, composée d'un Product Owner, d'un Data Steward et de deux Data Ingénieurs. La stack technique repose sur Python, Spark, SQL, Airflow, Delta Lake, Cloud Storage, et les services GCP (BigQuery, Dataproc, PubSub). L'infrastructure est gérée via Terraform et Terragrunt. Rôle et responsabilités principales Construire et maintenir des pipelines data robustes et scalables Participer aux phases de conception, planification et réalisation des tâches en équipe Organiser et structurer le stockage des données Mettre en place et maintenir les infrastructures scalables adaptées à la croissance des volumes Construire et maintenir les workflows CI/CD (GitLab CI/CD) Assurer la conformité, la sécurité et la stabilité des environnements Partager les bonnes pratiques au sein de l'équipe et participer aux instances des Data Ingénieurs Contribuer à la mise à jour de la documentation et assurer une veille technologique active Livrables attendus Pipelines data opérationnels et maintenus Infrastructure scalable mise en place et documentée Workflows CI/CD fonctionnels Documentation technique à jour Collecte et centralisation des sources de données non homogènes Contribution aux initiatives de gouvernance des données
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
CDD
CDI
Freelance

Offre d'emploi
Data Analyste  DATA/AMOA Sénior

KEONI CONSULTING
Publiée le
AMOA
Data analysis
SAS

18 mois
20k-60k €
100-600 €
Paris, France
Contexte : Business analyste pour accompagnement de l'équipe Conseil Valorisation de la Data. Dans le cadre de Solutions Data, nous avons besoins d’un profil de Business Analyst DATA/ AMOA Senior pour intervenir rapidement et venir renforcer l’équipe Conseil et Valorisation Data. MISSIONS principales missions : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel Et concrètement ? • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai). Environnement technique • Ecosystème DATA SI Décisionnel (SAS) et plateforme Big Data (Cloudera) Pré-requis : Expérience dans des projets Data (SI Décisionnel, plateforme Big data) Sensibilité aux enjeux de gouvernance et qualité des données Connaissance du secteur assurance
Freelance
CDI

Offre d'emploi
🔎 Data Engineer Senior – Apache NIFI / Databricks (H/F)

UCASE CONSULTING
Publiée le
Apache NiFi
Azure
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 🚀 Contexte de mission Nous recherchons un Data ingénieur - Référent technique Nifi et Data , vous intervenez au sein d’une équipe Data & IA sur des environnements critiques à forte volumétrie. L’objectif : concevoir, optimiser et sécuriser les flux de données dans un contexte de production exigeant, avec des enjeux forts de continuité de service . 🎯 Vos missions Développer et maintenir des pipelines de données (Apache NIFI / Databricks) Optimiser les flux existants (performance, fiabilité, scalabilité) Assurer le RUN et le support (HNO / 24-7) Mettre en place et améliorer les processus CI/CD Superviser les traitements (monitoring, alerting) Participer aux études techniques et POC Produire la documentation et les reportings d’incidents Être force de proposition sur l’ amélioration de l’architecture data ✅ Must Have Expertise Apache NIFI Très bonne maîtrise de Databricks Expérience solide sur Azure Bon niveau en Python & Spark Expérience en environnement de production critique (RUN / incidents) Connaissance CI/CD (Git / GitLab) Expérience en monitoring (type DataDog) Bonne maîtrise des bases de données (PostgreSQL) Expérience en Agile / Scrum ➕ Nice to Have Connaissance AKS (Kubernetes) Expérience avec Zookeeper Background sur des projets data à forte volumétrie Culture DevOps / automatisation avancée
Freelance

Mission freelance
Chef de Projet MOA – Compliance / Front Office Surveillance

ABSIS CONSEIL
Publiée le
Agile Scrum
Big Data
Elasticsearch

1 an
570-620 €
Paris, France
Contexte de la mission Dans le cadre de programmes réglementaires à forte visibilité, une organisation spécialisée dans les activités de marchés financiers renforce un dispositif de surveillance des conduites Front Office à l’échelle mondiale. La mission s’inscrit dans un programme IT réglementaire structurant , visant à industrialiser et déployer une plateforme de monitoring des communications et des comportements (trading, ventes, communications électroniques, ordres et transactions), en remplacement d’un outil existant. Les enjeux sont forts : délais réglementaires contraints, coordination multi‑équipes, forte exposition métier et conformité , dans un environnement international et anglophone. Mission En tant que Chef de Projet MOA – Compliance / Front Office Surveillance , vous interviendrez sur la gestion et la livraison des évolutions clés liées aux données collaborateurs et communications au sein de la plateforme de monitoring. Vous travaillerez en mode agile , en lien étroit avec les équipes métier, IT et data, avec un objectif clair : livrer rapidement un maximum de valeur fonctionnelle , tout en garantissant la conformité réglementaire. Responsabilités principales Recueillir, analyser et formaliser les besoins fonctionnels , cas d’usage et spécifications Challenger les exigences avec les équipes Data et IT afin d’assurer leur faisabilité technique Collaborer avec les sponsors métier, équipes conformité, supervision de plateforme et management Coordonner les travaux avec le chef de projet et les équipes projet (interne et externe) Piloter les activités en méthodologie agile (sprints, priorisation, suivi des livrables) Contribuer à la définition et à la mise en œuvre d’une stratégie data intégrant des approches d’analyse avancée (NLP, machine learning) Superviser le développement et l’évolution de solutions logicielles (ingestion de données de communication, gestion des flux, data management) Rédiger les spécifications fonctionnelles et techniques Élaborer les plans de tests, scripts de recette , organiser et animer les sessions UAT jusqu’à validation métier Gérer plusieurs sujets en parallèle dans un contexte à forte contrainte de planning
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
ARCHITECTE DATA EXPERT

Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka

3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Freelance
CDI

Offre d'emploi
Consultant.e Data Gouvernance / Anglais requis

Octopus Group
Publiée le
Data governance
Data quality

6 mois
40k-45k €
400-600 €
Île-de-France, France
Octopus Group , ESN de 100 collaborateurs est à la recherche d'un.e consultant.e Data gouvernance Dans le cadre d’un partenariat stratégique, nous accompagnons un acteur majeur du secteur du Luxe dans la structuration et la valorisation de ses actifs data à l’échelle groupe. Dans un environnement exigeant, international et orienté excellence, nous recherchons un(e) Consultant.e Data Gouvernance pour contribuer à la mise en place et à l’industrialisation des pratiques de gouvernance des données. avec un minimim de 3 ans d'expérience
Freelance

Mission freelance
Business Analyst Data - Flux Transactionnels Bancaires

STHREE SAS
Publiée le

12 mois
75001, Paris, Île-de-France
Business Analyst Data - Flux Transactionnels Bancaires (H/F) Localisation : Paris Type de mission : Freelance Démarrage : ASAP Durée : Long terme Secteur : Banque Contexte Dans le cadre d'un projet stratégique, nous recherchons un Business Analyst Data pour intervenir sur des problématiques liées aux flux transactionnels bancaires et aux données clients , dans un environnement à forts enjeux opérationnels. Missions principales Analyse des flux transactionnels bancaires (bout-en-bout) Suivi des délais de traitement et indicateurs de performance (SLA, T+X) Rédaction des spécifications fonctionnelles data Mapping et analyse des données clients et flux de données Participation aux phases de recette fonctionnelle (UAT) Analyse et résolution des anomalies en production (RUN) Coordination avec les équipes métiers, IT et data Profil recherché Expérience confirmée en tant que Business Analyst Data en environnement bancaire Expérience sur des flux transactionnels (paiements, cash management, virements, etc.) Bonne maîtrise de SQL (analyses et contrôles de données) Bonne compréhension des problématiques de qualité des données Expérience en environnement DataLake (vision fonctionnelle attendue) Capacité à intervenir en BUILD et RUN 👉 Anglais conversationnel professionnel indispensable Compétences appréciées (fortement valorisées) Reverse engineering Data protection Data governance / data management Connaissance d'un core banking (type SAB ) Maîtrise des concepts : Conceptual Data Model Logical Data Model Physical Data Model Compétences requises Analyse fonctionnelle Data mapping / data quality SQL UAT / Recette Analyse d'incidents Flux transactionnels bancaires Non retenu pour ce poste Profils orientés crédit / risque / réglementaire Profils BI / reporting uniquement Profils data engineer / architecte Informations complémentaires Environnement exigeant avec forte volumétrie de données Interaction transverse métiers / IT / Data Mission avec impact direct sur les opérations bancaires
CDI
Freelance

Offre d'emploi
Data Scientiste Senior

Etixway
Publiée le
IA Générative
Microservices
Python

1 an
40k-45k €
400-450 €
Noisy-le-Grand, Île-de-France
Nous recherchons pour l’un de nos clients un(e) Data Scientist Senior disposant d’une solide expérience sur les sujets IA et data avancée. Le consultant interviendra sur des problématiques de traitement et valorisation de données avec une forte dimension Intelligence Artificielle et IA générative. Compétences recherchées • Expertise Python • Expérience significative en Data Virtualization • Maîtrise des sujets IA / LLM (Large Language Models) • Bonne compréhension des architectures data et pipelines de traitement • Capacité à intervenir de manière autonome sur des sujets complexes • Expérience dans des environnements grands comptes ou secteur public appréciée Environnement technique • Python • IA générative / LLM / RAG • Data Virtualization • APIs / Microservices • Cloud & outils data modernes
Freelance

Mission freelance
Architecte Modélisation Data (H/F)

Freelance.com
Publiée le
Cybersécurité

1 an
340-740 €
Île-de-France, France
2 jours de gratuité ( les deux premiers jours de mission ) Dans le cadre de l’équipe Architecture Solutions SI (Direction Stratégie SI, Architecture & Cloud), la mission consiste à accompagner les projets autour des solutions collaboratives et des enjeux de modélisation et d’architecture data . L’objectif est d’assurer la cohérence des architectures data avec les processus métiers, tout en garantissant l’alignement avec les standards SI et les objectifs de rationalisation. ⸻ 🧩 Rôle & responsabilités En tant qu’Architecte Data / Expert Data Modélisation, vous serez en charge de : Accompagner les projets dans la définition de leur architecture data Assurer l’alignement avec la stratégie SI et les processus métiers Définir, promouvoir et faire évoluer le cadre d’architecture data Réaliser la modélisation fonctionnelle des objets métiers Maintenir et enrichir la cartographie SI Contribuer à la conception des modèles logiques et physiques de données (MLD / MPD) Accompagner les équipes de développement sur les sujets data ⸻ 🏗️ Activités principales Modélisation data des solutions dans le cadre des projets Définition des architectures fonctionnelles et data, de la phase de cadrage jusqu’à la mise en production Production des livrables d’architecture et mise à jour du référentiel Présentation et validation des solutions en instances d’architecture Émission d’avis d’architecture Coordination des activités d’architecture Pilotage de l’engagement d’architecture auprès des parties prenantes
CDI

Offre d'emploi
Data Engineer Snowflake Senior F/H/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
Ocaml
Python

Ville de Paris - Archives de Paris - Centre annexe, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

5490 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous