Trouvez votre prochaine offre d’emploi ou de mission freelance Dash à Paris
Votre recherche renvoie 313 résultats.
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
Lead Data Architect – Refactoring Data Platform
Pickmeup
Publiée le
Data governance
2 mois
800-1 200 €
Paris, France
Dans un contexte de transformation stratégique post-acquisition, notre client souhaite refondre en profondeur son architecture data afin d’unifier deux écosystèmes distincts : Une plateforme orientée AI / data temps réel Un système historique structuré de type ERP / media planning L’objectif est de construire une architecture cible robuste, scalable et “AI-ready” , capable de supporter des cas d’usage avancés tout en garantissant la cohérence des données métiers. Nous recherchons un Lead Data Architect pour une mission courte et à fort impact, avec une responsabilité clé : poser les fondations de la future plateforme data du groupe . Responsabilités Réaliser un audit rapide des architectures existantes (data models, flux, dépendances) Identifier les limites actuelles : silos, incohérences, dette technique, performance Définir une architecture data cible (data platform / lakehouse / data products) Concevoir un modèle de données unifié (canonical data model) Proposer une stratégie de convergence entre : données temps réel (event-driven) données structurées (ERP / finance / planning) Définir les principes d’architecture : découplage scalabilité gouvernance sécurité Structurer les premiers data products par domaine métier Cadrer les choix technologiques (cloud, stockage, orchestration, streaming) Accompagner les équipes techniques dans la mise en mouvement (kickoff, guidelines) Produire une documentation claire à destination du CTO et des équipes
Mission freelance
Quality Data/Lead Data Referentiel
Cherry Pick
Publiée le
Finance
IA
Numpy
12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Offre d'emploi
Concepteur Développeur Data (H/F)
Aleysia
Publiée le
Apache NiFi
BI
Data Lake
12 mois
40k-45k €
100-500 €
Paris, France
Si la Data est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Concepteur Développeur Data ! 🚀 Ton challenge si tu l’acceptes : • Concevoir et développer des pipelines de données robustes et performants (modèle Bronze / Silver / Gold) avec un code documenté • Collaborer à la conception de l’architecture Data et à la structuration des flux (MDM, multi-sources) • Gérer la maintenance évolutive et corrective des flux de données • Participer activement à l’ amélioration continue des traitements et performances • Implémenter des contrôles qualité, traçabilité et tests pour fiabiliser les données • Suivre les bonnes pratiques (sécurité, gouvernance, CI/CD) et participer aux revues techniques • Travailler en méthodologie Agile/Scrum au sein d’une squad Data
Offre d'emploi
Data Analyst SAS F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Offre d'emploi
Data Analyst Monétique
Lùkla
Publiée le
Azure
Data analysis
Google Cloud Platform (GCP)
6 mois
30k-80k €
400-550 €
75000, Paris, Île-de-France
Nous recherchons dans le cadre d'un programme gagné des data analysts qui rejoindront une datafactory dont le rôle est : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement,
Mission freelance
Ingénieur C / Go – Systèmes Télécom (Parsing & Protocoles) - Paris/Montpellier (H/F)
EASY PARTNER
Publiée le
C/C++
Go (langage)
Linux
1 an
450-550 €
Paris, France
🧩 Contexte Dans le cadre de la modernisation de systèmes critiques, un acteur majeur du secteur télécom recherche un Ingénieur C / Go pour intervenir sur des logiciels d’interconnexion entre infrastructure réseau et systèmes d’information. Le périmètre couvre des flux internationaux liés au roaming , utilisés pour : la facturation inter-opérateurs la détection de fraude le suivi en temps réel de la consommation 👉 Il s’agit d’un environnement très technique , manipulant des données complexes à bas niveau. 🎯 Mission Vous interviendrez sur un logiciel existant (déjà en production), avec pour objectifs : Comprendre et s’approprier le fonctionnement du système Analyser et manipuler des flux de données binaires Participer à la migration vers une nouvelle infrastructure Assurer la stabilité et la continuité de service Collaborer en binôme avec un ingénieur interne 👉 Pas de refonte immédiate : priorité à la prise en main, compréhension et migration 🔧 Environnement technique Langages : C (principal), Go Systèmes : Linux (Debian / Ubuntu) Parsing : formats binaires (ASN.1, BER, DER ou équivalents) Backend : APIs / Webservices Outils : Git, SQL, Python, Docker, Kafka (selon environnement)
Offre d'emploi
Ingénieur Infrastructure H/F
Le Groupe SYD
Publiée le
Ansible
Bash
ClickHouse
45k-55k €
Paris, France
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Infrastructure H/F 📍 Lieu : Paris (75) 🏠 Télétravail : 3 jours sur site par semaine 📝 Contrat : CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur financier , engagé dans la modernisation, la sécurisation et l’industrialisation de ses plateformes Data à grande échelle. En tant qu’ Ingénieur Infrastructure tu interviens sur le maintien en conditions opérationnelles, l’évolution technologique et la performance d’environnements Data complexes (CDP 7.1.x, Hadoop, stockage distribué, ingestion API…). 🎯 Tu auras pour missions de : Tu auras pour missions de : Recueillir les besoins métiers. Développer l’ingestion (API) et concevoir les stockages (Ozone, Hadoop…). Automatiser les traitements (batchs/pipelines). Nettoyer, transformer et structurer les données. Documenter les bases et garantir la conformité RGPD. Assurer la maintenance corrective/évolutive. Déployer et industrialiser les modèles ML. Assurer validation, monitoring et robustesse. Participer au design, à l’installation et à la qualification des plateformes. Contribuer à l’industrialisation continue. Support aux équipes métiers/applicatives/infra. Communication régulière au chef de projet. Astreintes + interventions HNO. Amplitude équipe : 8h–19h. 🧰 Stack technique : Cloudera CDP 7.1.x : HBase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, Kerberos, LDAP Systèmes : RedHat 8, RedHat 9 Langages & DevOps : Python, Bash, Java, Maven, Gradle, Ansible, DevOps Stockage & Data : Ozone, Hadoop, Druid, Clickhouse Traitement & orchestration : Airflow, Flink, Trino, Starburst Containers : Openshift, Kubernetes (K8s), Cloudera Data Services Autres : écosystème Apache, automatisation, migration clusters Hadoop
Offre d'emploi
Chef de projet Agile Master Confirmé
KEONI CONSULTING
Publiée le
Azure Data Factory
Backlog management
Scrum
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Vous interviendrez au sein d'un projet récent, innovant en termes d'organisation et de technos. La mission s’inscrit au service du produit Editeur : - Plateforme d’api éditeur - Média autour de cette plateforme. La mission concerne l’un des deux pôles. Ce produit est en pleine transformation pour devenir un produit autonome utilisable par plusieurs clients. MISSIONS L'Agile master est un facilitateur de la vie d’une équipe de delivery et garant de son bon fonctionnement. Il est également facilitateur des démarches agiles (SCRUM/KANBAN/...), devops et des relations avec les autres équipes de l’écosystème. Il accompagne l'équipe dans un objectif d'autonomie et d'amélioration continue. Etre moteur sur la transformation agile et les pratiques au niveau de son éco système au sens très large et s'assure ainsi de la bonne cohérence de l'animation et des bonnes pratique à l'échelle de son domaine ou de sa factory ou d'un domaine de sa dimension systémique. Dans une approche lean, il promouvoit les méthodes et pratiques agiles dont il est le garant, et de faire en sorte que les équipes deviennent autonomes dans leur fonctionnement Agile. D’un point de vue méthode, il conseille aussi les acteurs pour trouver les pratiques les plus adaptées au contexte. Livrables • Mise en place des pratiques agiles. • Mener les activités préparatoires : Accompagner/coacher le Product Owner, Animer les séances d'évaluation des items du backlog et aider l'équipe à devenir autonome sur ce sujet • Mise en place des artefacts (Indicateurs, Burndown, HealthCheck, etc.) utiles, utilisés et utilisables au suivi de l’efficience de l’équipe. • Organisation des différentes cérémonies : Weekly, DSM, Rétrospective, Maturation, Démo. S'assurer que la documentation technique et fonctionnelle soit à jour et utile au partage de connaissance (intra équipe, inter équipe, nouveaux arrivants) S’assurer de l’autonomie de l’équipe pour un déploiement en continue (en recette et à venir en production) • Aider l'équipe à s'améliorer en continu : analyse des obstacles, éléments bloquants, interférences extérieures.
Offre d'emploi
Data Manager confirmé – Gouvernance Data / Data Quality / Catalogage
Inventiv IT
Publiée le
Big Data
Data governance
Développement
6 mois
48k-58k €
460-550 €
Paris, France
Nous voulons un profil polyvalent technico-fonctionnel orienté Data, Data Quality, Développement & DevOps (avec une vision globale). 20 % : Technique applicative (DevOps & Développement) 20 % : Data Gouvernance & Catalogage 20 % : Data transverse 40 % : Data Quality Confirmé : entre 3/7 ans d’expérience Contexte Au sein de la Data Factory, la mission s’inscrit dans le cadre du renforcement de l’outillage et des pratiques de Data Management sur la plateforme Data et sur les sujets de Data Quality Groupe. L’objectif est d’accompagner l’industrialisation des pratiques de gouvernance de la donnée, d’améliorer la qualité des données, de fiabiliser les mises en production et de renforcer la traçabilité et la conformité des activités data. Objectifs de la mission Le consultant interviendra pour : renforcer l’industrialisation des pratiques de Data Management sur la plateforme Data améliorer l’outillage de catalogage, de lineage et d’interconnexion entre outils, contribuer au chantier Data Quality fonctionnelle au niveau Groupe, garantir la conformité aux exigences de gouvernance data et de traçabilité, accompagner les métiers et équipes projets dans l’usage des outils et livrables de gouvernance. Positionnement Rattachement opérationnel : sous la supervision du Product Owner de la Plateforme Data Groupe Reporting hiérarchique : manager des plateformes Data Interactions fréquentes avec : référents Data métiers, équipes Gouvernance Data Groupe, squads projets, intervenants IT / DSI. Participation aux principales cérémonies Agile de l’équipe. Missions principales 1. Administration et amélioration des outils de Data Management Garantir la cohérence globale des paramétrages des fonctions Data Management dans le socle Data & IA. Administrer ou contribuer à l’administration des outils de gestion de métadonnées et de catalogage. Assurer la continuité et l’amélioration de la qualité de l’écosystème d’outils. Gérer les interconnexions pour garantir un linéage fiable entre outils, notamment Databricks et Collibra. Produire la documentation d’exploitation et les modes opératoires. Identifier des améliorations pragmatiques pour réduire les tâches manuelles et augmenter le taux de tables documentées/taggées. 2. Contribution à la gouvernance Data Groupe Apporter son expertise sur l’offre de services autour du Data Catalogue Groupe / Collibra. Contribuer à la structuration du programme Data Quality fonctionnelle : méthodologie, planning, audits, reporting, coordination avec les BU. 3. Accompagnement méthodologique des produits Data métier Accompagner les Data Owners métiers dans les ateliers de qualification des sources. Garantir la cohérence des CCD (Cadres de Confiance Data). Assister les équipes sur la production des Contrats d’Interface et Contrats de Consommation. Faire monter les équipes en autonomie sur les outils fournis, notamment via coaching et accompagnement. 4. Gouvernance, conformité et pilotage Documenter le patrimoine de données avec une vision transverse. Vérifier le bon renseignement des métadonnées techniques de la recette à la production. Contrôler et fiabiliser le linéage. Maintenir la qualité du catalogage : définitions, descriptions, tags, propriétaires, périmètres. Classifier les données selon leur sensibilité : DCP, données business sensibles, santé, etc. Fournir des tableaux de bord sur la qualité des données et la gouvernance dans la plateforme Data Suivre l’avancement sur plusieurs projets en parallèle. Tenir à jour la matrice Applications x Domaine. Rédiger des comptes rendus orientés actions / décisions. Alerter rapidement et formellement en cas de retard ou dépendance bloquante.
Mission freelance
Consultant Expert SAP BC / BASIS S/4HANA (H/F)
DUONEXT
Publiée le
SAP Basis
SAP S/4HANA
6 mois
Paris, France
Dans le cadre d’un programme international de transformation SAP S/4HANA, un grand groupe industriel recherche un expert SAP BASIS / BC. La mission s’inscrit dans un environnement international exigeant, couvrant les phases clés du programme : build, tests, cutover et go-live, avec une forte interaction entre équipes internes, partenaires et équipes offshore. En tant que Consultant Senior SAP BC, vous intervenez avec une forte dimension technique et opérationnelle : Expertise SAP BASIS / BC Référent technique sur SAP S/4HANA Installation, configuration et administration des environnements (DEV, QAS, PRD) Gestion des paysages SAP et des transports (TMS) Réalisation des opérations techniques Garantie de la performance, stabilité et disponibilité des systèmes Support projet & programme Intégration au sein de l’équipe projet (fonctionnel, technique, programme) Participation aux ateliers techniques et design Contribution aux analyses d’impact et gestion des risques Préparation et exécution des phases de cutover et go-live Support hypercare post go-live Coordination & support opérationnel Coordination avec équipes internes, intégrateurs et partenaires Interface avec l’offshore pour le suivi des environnements Gestion des sujets techniques transverses Contribution à la documentation technique et aux procédures RUN
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Mission freelance
Chef de projet CRM mobile - omnicanal (push notifications / cycle de vie)
INSYCO
Publiée le
Adobe Campaign
Confluence
Data Lake
48 mois
400-500 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef de projet CRM mobile – omnicanal (push notifications / cycle de vie) Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/CRM/5239 dans l'objet de votre message Contexte de la prestation La direction numérique du client pilote des projets transverses en lien avec les équipes data, technique, produit et les éditeurs de contenus et de services. Dans ce cadre, la direction de la croissance des offres souhaite être accompagnée par une prestation de gestion de projet fonctionnel CRM mobile, couvrant le cadrage et la mise en place des campagnes, depuis l'expression des besoins jusqu'à la recette, la mise en production et le suivi des performances, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité. Missions principales Gestion de projets CRM omnicanaux en coordination avec les équipes CRM, produit, data, technique et RGPD, du cadrage à la recette jusqu'à la mise en œuvre Exemples de projets : déploiement ou refonte de communications automatisées (cycle de vie post-installation d'application ou de réactivation) dans l'outil de gestion de notifications, déploiement de la personnalisation dans les push notifications, campagnes de collecte pour optimiser le taux d'opt-in, AB tests pour optimiser les performances, mise en place de dashboards automatisés basés sur les données issues du datalake du client Recettes liées aux parcours CRM sur applications mobiles (de l'inscription post-installation au paramétrage des alertes, à la bonne réception des alertes, à leur suppression et personnalisation) Vérification de la qualité des données liées aux plans de marquage, remontées des performances dans les outils, visites et outil de web analytics Analyses récurrentes des performances des campagnes et analyses ad hoc (ex : impact pression, corrélations…) dans le module analytics de l'outil de gestion des notifications, dans l'outil de web analytics, ainsi que via des rapports Power BI existants et de futurs à déployer Paramétrage et optimisation des communications cycle de vie automatisées avec une vision omnicanale Back-up sur la gestion opérationnelle dans l'outil de gestion des notifications mobiles pour les campagnes manuelles : paramétrages, planification, plan d'animation relationnelle, recommandations d'optimisation et analyses
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Mission à 600 km de chez moi - Frais de double résidence
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Recherche par mot clef KO ...
- 🚀 À la recherche d’une opportunité en IT – Disponible immédiatement
313 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois