Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 963 résultats.
Freelance

Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

CDI

Offre d'emploi
Chef de Projet Data (h/f)

emagine Consulting SARL
Publiée le

35k-40k €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes

Contexte: Nous recherchons un(e) Chef(fe) de Projet Data pour piloter des projets de données contribuant à la transformation digitale du groupe, aligné avec des objectifs stratégiques tout en assurant une interface efficace entre les équipes métier et IT. Responsabilités : Recueillir et challenger les besoins métiers. Piloter des projets data de bout en bout (de l'expression du besoin à la mise en utilisation par les métiers). Assurer l’interface entre les équipes métiers, IT et data. Contribuer à la mise en place de la gouvernance des données (qualité, catalogage, référentiels). Participer à la définition et au suivi des KPIs liés à la performance data du groupe. Compétences: Expérience en gestion de projets data. Connaissance des outils et technologies data (Data Lake, DWH, etc.). Niveau d'anglais courant. Compétences en amélioration continue. Capacité à travailler en équipe interdisciplinaire. Esprit d'analyse développé. Informations sur le poste: Localisation : Tarare (69) ou Saint-Paul-Trois-Châteaux (26). Type de contrat : CDI, temps plein. Déplacements inter-sites occasionnels.

CDI

Offre d'emploi
Ingénieur Data Senior - Azure

Focus Cloud Group
Publiée le
Azure
Azure Data Factory
Databricks

Paris, France

Ingénieur Data Senior – Azure | Spark | Microsoft Fabric Localisation : Paris (hybride) Nous sommes un partenaire de référence de Microsoft , spécialisé dans la mise en œuvre de solutions cloud et data pour des clients grands comptes en Europe. Grâce à notre expertise approfondie de l’écosystème Microsoft, nous accompagnons nos clients dans leur transformation digitale, en concevant des plateformes de données modernes, scalables et sécurisées. Dans le cadre de notre développement, nous recherchons un(e) Ingénieur(e) Data Senior expérimenté(e) sur Apache Spark, Azure Synapse Analytics, Databricks et Microsoft Fabric. Ce rôle technique et orienté client vous amènera à piloter la conception et la mise en œuvre de solutions data de bout en bout dans un environnement cloud Azure. Vos missions Concevoir et développer des plateformes data modernes sur le cloud Azure, avec Databricks, Synapse et Microsoft Fabric. Développer des pipelines de données performants et scalables avec Apache Spark (PySpark, SQL ou Scala). Mettre en œuvre des processus d’ingestion de données structurées, semi-structurées et non structurées. Définir des modèles de données robustes et des logiques de transformation pour les cas d’usage analytiques. Orchestrer les flux de données via Azure Data Factory ou Microsoft Fabric Pipelines. Garantir la qualité, la gouvernance, la sécurité et la traçabilité des données via les services natifs d’Azure. Collaborer avec les architectes, les analystes et les parties prenantes pour aligner les solutions techniques sur les enjeux métiers. Encadrer des profils plus juniors et participer activement au partage de connaissances internes. Contribuer aux avant-ventes, aux réponses à appels d’offres et aux ateliers clients. Assurer une veille constante sur les nouvelles technologies du domaine data & cloud. Compétences techniques requises Maîtrise avancée d’Apache Spark (idéalement PySpark) et optimisation de performances. Expérience pratique sur Microsoft Fabric (Lakehouse, Pipelines, Notebooks...). Expertise sur Databricks (workflows de développement, Delta Lake, Unity Catalog…). Compétence en orchestration avec Azure Data Factory et/ou Fabric Data Pipelines. Bonne connaissance des architectures Lakehouse, modélisation dimensionnelle, et bonnes pratiques ELT/ETL. Connaissance des pratiques DevOps dans Azure (CI/CD, Azure DevOps). Compréhension des enjeux de gouvernance des données, sécurité et gestion des accès (RBAC) dans Azure. Atouts supplémentaires Expérience préalable dans un cabinet de conseil ou un environnement de services professionnels. Maîtrise de Power BI, notamment dans un contexte Microsoft Fabric. Familiarité avec les outils d’Infrastructure as Code (Bicep, Terraform). Connaissances des technologies temps réel : Azure Event Hub, Stream Analytics ou équivalents. Expérience de collaboration avec des équipes Data Science ou sur des pipelines de Machine Learning. Profil recherché Excellente communication, à l’aise pour vulgariser des concepts techniques auprès d’un public non technique. Approche orientée conseil, avec une capacité à identifier les besoins métiers et proposer des solutions data sur mesure. Esprit d’équipe, proactivité, rigueur et autonomie. Expérience en environnement agile ou orienté livraison. Maîtrise du français et de l’anglais (à l’écrit comme à l’oral).

CDI

Offre d'emploi
Data Engineering Manager (H/F)

Pickmeup
Publiée le
BigQuery
Git
Java

Île-de-France, France

Missions principales Conception & stratégie data Définir une vision claire pour les infrastructures de données en cohérence avec les objectifs globaux de l’entreprise. Encadrer la mise en place de pipelines de données fiables, performants et évolutifs. Superviser la gestion des flux, du stockage et de la structuration des données. Leadership & organisation Structurer et faire évoluer une équipe d’ingénieurs data (recrutement, montée en compétences, accompagnement). Promouvoir des pratiques de développement robustes et une culture de l’innovation. Garantir une coordination fluide entre les équipes techniques et métiers. Gouvernance & qualité Assurer la fiabilité, la sécurité et la conformité des données exploitées. Optimiser les coûts liés au stockage et au traitement. Documenter les architectures, processus et flux de données pour assurer transparence et maintenabilité. Collaboration transverse Interagir avec les équipes métiers pour comprendre les cas d’usage et proposer des solutions techniques adaptées. Travailler en lien étroit avec les équipes produit, analytics, DevOps et architecture. L’entreprise s’engage à promouvoir l’égalité des chances et à garantir un processus de recrutement inclusif et non discriminatoire.

Freelance
CDI
CDD

Offre d'emploi
Chef(fe) de projet modelisation data

IT CONSULTANTS
Publiée le
Azure Data Factory
Méthode Agile

6 mois
Châtillon, Île-de-France

Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Freelance

Mission freelance
Consultant Business Analyst Data / Datawarehouse

CRYSTAL PLACEMENT
Publiée le
Business Analyst

1 an
400-600 €
38200, Vienne, Auvergne-Rhône-Alpes

Dans le cadre du renforcement de notre équipe Data, nous recherchons un consultant Business Analyst Data pour une mission en prestation de services. Il sera chargé de faire le lien avec les métiers, d’analyser leurs besoins, de formaliser les exigences fonctionnelles et techniques et de garantir la qualité des données au sein de l’organisation. Il collaborera étroitement avec les Business Analysts des différents pôles applicatifs, afin d’assurer la cohérence des flux et des processus métiers et d’en capter les spécificités. Le business Analyst Data aura en charge les nouvelles demandes, les évolutions et la maintenance des flux d’alimentation du DWH et sera le principal interlocuteur avec le métier. Il fera le lien avec les développeurs, rédigera les documents technico-fonctionnel, assurera les tests et fera la livraison aux métiers. La data étant au centre des outils opérationnels, il est important que le business analyst data ait des connaissances dans les domaines de la finance, des achats, des ventes et de la production, en s’appuyant sur l’expertise des Business Analyst de chaque pôle. Il devra maîtriser SAP parce que c’est la source principale d’alimentation du DWH. Missions ● Relation avec les métiers : ○ Recueillir et analyser les besoins auprès des différents services métiers. ○ Travailler en étroite collaboration avec les Business Analysts des pôles applicatifs ○ Garantir la coordination inter-pôles pour la cohérence des flux de données et des processus. ○ Respecter les bonnes pratiques ITIL pour la gestion des incidents, des problèmes et des changements. ● Rédaction des spécifications fonctionnelles : ○ Élaborer des documents clairs et complets, conformes aux normes ITIL. ○ Décrire les flux de données, les règles de gestion et les interfaces associées. Avec modélisation des flux si possible ● Connaissances techniques et fonctionnelles : ○ Maîtriser les technologies SAP (FI, CO, SD, MM, PP, WM, LE) et SQL pour l'extraction, la transformation et la gestion des données. ○ Un intérêt pour les autres applications SI (PLM, Salesforce, ...) ○ Connaître les outils de BI et d’ETL pour le traitement des données inter-pôles. ● Tests et validations : ○ Concevoir et exécuter des tests pour valider l'intégrité des données après transformation. ○ Appliquer la méthode ITIL pour le suivi et la gestion des incidents détectés lors des tests. ● Rédaction du dossier d'exploitation : ○ Rédiger des documentations techniques et fonctionnelles, intégrant les processus de gestion des changements et des incidents (ITIL). Lieu de la Mission Rhône-Alpes : 38 Modalités de la mission Démarrage : dès que possible Durée : 6 mois minimum Rythme : plein temps Télétravail : 2 jours par semaine possible, mais après une période de transfert de connaissance, d'intégration dans l'équipe et de niveau d'autonomie acquis.

Freelance
CDI

Offre d'emploi
Data Engineer Senior (Python, Py Spark, AWS ) – Anglais courant)

HIGHTEAM
Publiée le
API
AWS Cloud
PySpark

3 ans
40k-62k €
400-620 €
Île-de-France, France

Pour l’un de nos clients grand compte, nous recherchons un Data Engineer Senior maîtrisant Python , Py Spark , les API , AWS , et ayant une forte expertise en modélisation des données . Le rôle implique la conception et la mise en œuvre de composants de la plateforme data, incluant : L’ingestion et le traitement des données La construction et l’amélioration d’un cadre technique commun : Monitoring CI/CD Tests automatisés Performance Résilience Qualité du code Bonnes pratiques de développement Activités principales Recueillir, analyser et challenger les besoins métiers Concevoir des solutions en accord avec les architectures définies Contribuer au développement en tant qu’expert / lead technique Écrire un code propre, réutilisable, fiable et conforme aux standards qualité Identifier et résoudre les problèmes (bugs, goulots d’étranglement, etc.) Fournir des solutions robustes et prêtes pour la production Mettre en place des outils de monitoring et d’alerte pour assurer la fiabilité des services en production Documenter les développements en anglais et partager les connaissances avec l’équipe Communiquer efficacement avec les différentes équipes projet

Freelance

Mission freelance
Data Engineer confirmé H/F

Insitoo Freelances
Publiée le
Apache Kafka
BigQuery
PowerBI

2 ans
100-508 €
Hauts-de-France, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer confirmé H/F à Hauts-de-France, France. Contexte : Le profil intégrera une équipe Data en charge d'un périmètre fonctionnel Les missions attendues par le Data Engineer confirmé H/F : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Freelance

Mission freelance
Consultant Data Analyst – Taxonomie des données RH (Banque / Assurance)

FINAX Consulting
Publiée le
Data analysis

3 mois
550-700 €
Paris, France

Nous recherchons un consultant Data Analyst pour accompagner un projet de mise en place d’une taxonomie des données RH au sein d’un acteur bancaire. Mission : Identifier et catégoriser les données RH (sensibilité, besoins métier, outils) Définir une nomenclature claire avec métadonnées et standards de qualité Relier les données aux processus et glossaires métiers existants Intégrer les indicateurs RH aux taxonomies Rédiger un support de référence sur la méthodologie retenue Profil recherché : Expérience confirmée en Data Analyst Connaissance du domaine RH Compétences en organisation/méthodologie et conformité des données Aisance dans le recueil des besoins et excellentes qualités rédactionnelles Détails : Démarrage : 15 septembre 2025 Durée : 3,5 mois (70 jours env.), renouvelable jusqu'à 3 fois Lieu : Paris Freelance Temps plein

Freelance

Mission freelance
Data ingénieur AWS

MLMCONSEIL
Publiée le
AWS Cloud
Dataiku

6 mois
100-500 €
Île-de-France, France

Pour le besoin de mon client basé en Ile de France , je suis à la recherche d'un Data Engineer AWS expérimenté. Tâches Mettre en place la synchronisation des données du datalake on-premise vers AWS via DataSync , avec contrôles d’intégrité et suivi des transferts. Structurer le datalake AWS (S3) en plusieurs zones (Raw, Cleansed, Curated) et intégrer un catalogue avec Glue pour la gouvernance. Déployer et configurer Starburst/Trino pour l’accès fédéré aux données et l’optimisation des requêtes analytiques. Implémenter les use cases Data/IA en utilisant Dataiku + services AWS (Bedrock, RAG, SageMaker si besoin) pour développer les modèles et orchestrer les pipelines. Assurer la mise en production et la supervision (CloudWatch, CloudTrail, IAM sécurisés, tests de charge, monitoring des coûts et résolution des problèmes résiduels). Compétences Demandées Date de début souhaitée : début septembre Environnement technique : AWS solutions Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus

Freelance
CDI

Offre d'emploi
Data Analyst

VISIAN
Publiée le
Microsoft Power BI
QA

1 an
40k-45k €
100-500 €
Montreuil, Île-de-France

Projet de Développement de Dashboard Le projet consiste à faire évoluer un dashboard Power BI affichant plusieurs indicateurs clés de performance (KPI) liés aux services clients, avec les objectifs suivants : Permettre aux clients de visualiser la performance des services Offrir aux responsables de services une vision d’analyse globale de leurs performances Ajouter de nouvelles dimensions d’analyse Étendre les typologies de KPI Couvrir l’ensemble des entités du groupe Développement de dashboards et visualisation Estimer les charges de travail pour la couche de visualisation Concevoir les maquettes et structures des dashboards Power BI Développer les dashboards en cohérence avec les spécifications fonctionnelles Présenter et valider les dashboards avec les parties prenantes (design et qualité des données)

Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Gestion de projet
Java

1 an
40k-45k €
100-370 €
Montreuil, Île-de-France

Mission Dans le cadre d’un projet stratégique lié aux activités de marché, vous interviendrez en tant que développeur Java Full Stack au sein d’une équipe en charge du développement et du support d’un outil d’aide à la décision à destination des équipes de trading. Votre rôle allie expertise technique et compréhension fonctionnelle, afin de garantir la performance, la fiabilité et l’évolutivité de la solution. Répartition des activités La mission s’articule autour de trois grands axes, de manière équilibrée : 33 % Support applicatif : accompagnement des utilisateurs (traders, risk managers…), analyse des incidents, résolution des problèmes, suivi de la production. 33 % Développements rapides / tactiques : mise en œuvre d’évolutions ponctuelles ou de correctifs, avec un cycle de livraison court pour répondre aux besoins métiers urgents. 33 % Développements structurants ou gestion de projet : participation à des chantiers plus complexes nécessitant une approche projet, en lien avec les autres équipes IT et les utilisateurs finaux. Attendu à un niveau sénior sur ces sujets.

CDI

Offre d'emploi
Data scientist (H/F)

NORGAY
Publiée le

38k-45k €
Nantes, Pays de la Loire

Afin d'accompagner notre client dans ses projets de transformation digitale et d’innovation, nous recherchons un Data Scientist (H/F). A ce titre, vous interviendrez au sein d’équipes dédiées au secteur public et intégrerez une communauté d’experts au service de la valorisation de donnée afin de: Comprendre les problématiques métier et formuler des cas d’usage data pertinents; Collecter, nettoyer et préparer les données (structurées et non structurées); Développer et entraîner des modèles de Machine Learning et Deep Learning; Mettre en place des algorithmes de traitement du langage naturel, vision par ordinateur ou prédiction; Interpréter et restituer les résultats auprès des clients via des visualisations et recommandations; Participer à la veille technologique et proposer des innovations.

Freelance

Mission freelance
Data Architect – Core Model CRM

Cherry Pick
Publiée le
Architecture
AWS Cloud
CRM

24 mois
600-650 €
Paris, France

Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

CDI

Offre d'emploi
Consultant(e) Data Analyst

CONSORT GROUP
Publiée le

42k-55k €
Île-de-France, France

Mission Vous avez une forte appétence au Marketing et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Gestionnaire de campagnes marketing. Votre mission principale consiste à participer à l'application de la stratégie marketing multicanal de votre client : du recueil des besoins aux déploiements des ciblages en passant par la coordination des besoins et la gestion des échéances ou au suivi de la délivrabilité Vous participez à la mission de communiquer au bon client au bon moment à travers le meilleur canal, avec pour objectif l'augmentation des conversations (achats, trafic, branding, ...) et/ou la limitation de l'attrition Vous analysez la performance des campagnes à travers nombres d'indicateurs permettant d'optimiser les ciblages des campagnes futures Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition

963 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous