Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 298 résultats.
Freelance

Mission freelance
Senior Security Engineer

Publiée le
AWS Cloud
Azure
Gateway

12 mois
540-570 €
Suresnes, Île-de-France
Télétravail partiel
Nous recherchons un(e) Senior Security Engineer expérimenté(e) pour rejoindre notre équipe de sécurité opérationnelle. Le rôle est essentiel pour renforcer la posture cybersécurité de l’organisation en participant à des projets d’architecture, en menant des tests d’intrusion, en supervisant des projets de sécurité et en apportant une expertise technique sur les solutions de sécurité. La mission contribue à garantir l’efficacité des contrôles de sécurité, à appliquer la gouvernance de sécurité et à protéger les actifs critiques tout en maintenant la résilience opérationnelle. Responsabilités principales : Stratégie et architecture cybersécurité Mener des études d’architecture de sécurité. Assister à la mise en œuvre de la feuille de route technologique en cybersécurité. Fournir des retours sur les technologies émergentes et leur impact opérationnel. Aider à aligner l’utilisation des technologies avec les objectifs de sécurité de l’entreprise. Gestion de projets cybersécurité Superviser la planification, l’exécution et la livraison de projets cybersécurité (infrastructure, applications, cloud). Définir le périmètre, les objectifs et les livrables des projets. Collaborer avec des équipes transverses (IT central, IT régional, équipes produits et solutions, équipes GRC). Communiquer l’avancement, les risques et les résultats aux parties prenantes techniques et non techniques. Tests d’intrusion et gestion des vulnérabilités Contribuer à la définition du programme de tests d’intrusion. Coordonner les tests pour identifier les failles de sécurité. Analyser les résultats et accompagner les équipes concernées dans les mesures correctives. Fournir des rapports avec recommandations exploitables. Expertise sur les solutions de sécurité Piloter le déploiement des outils de sécurité. Agir en tant qu’expert technique sur les plateformes et outils de sécurité. Former les équipes IT et SecOps sur les technologies de sécurité. Évaluer la performance des solutions de sécurité et proposer des améliorations. Compétences techniques et qualifications : Minimum 10 ans d’expérience en tant que consultant ou dans un rôle similaire en cybersécurité. Expérience avérée dans la conception et la mise en œuvre de stratégies de prévention des fuites de données (DLP) sur environnements cloud et postes de travail. Maîtrise approfondie de l’architecture de sécurité cloud (AWS, Azure, GCP) : IAM, chiffrement, conception sécurisée des workloads. Expérience pratique avec CSPM et CWPP, y compris la sélection, rationalisation et intégration des outils. Connaissance des WAF (AWS WAF, Azure Application Gateway, Cloudflare) et de leur configuration. Expertise dans la conception, l’exécution et le suivi des programmes de tests d’intrusion. Compétences complémentaires : Gestion de projet et engagement des parties prenantes. Capacité à traduire les risques techniques en impacts business. Excellentes compétences en communication et documentation, à destination d’audiences techniques et exécutives. Maîtrise du français et de l’anglais.
Freelance
CDI

Offre d'emploi
Infrastructure Engineer Expert – File Transfer

Publiée le
Scripting

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Infrastructure Engineer Spécialités technologiques : Infrastructure, Virtualisation, Reporting, Managed File Transfer, MFT Compétences Technologies et Outils TCP/IP Apache Tomcat AWS Linux VMware SFTP Azure Axway Synchrony Python Windows http PowerShell ServiceNow Méthodes / Normes ITSM ITIL KPI Description et livrables de la prestation La prestation consiste à assurer l’expertise, l’exploitation et l’évolution des plateformes de transferts de fichiers managés (MFT) dans un environnement critique du secteur bancaire & assurantiel. Le prestataire garantit la disponibilité, la sécurité et la performance des flux inter-applicatifs, tout en accompagnant les équipes internes dans la mise en œuvre, la résolution d’incidents complexes, l’automatisation et l’amélioration continue. La mission inclut également la participation aux projets d’intégration, aux montées de versions et à la modernisation des solutions. LIVRABLES 1. Exploitation & Support Suivi et supervision des plateformes MFT Résolution d’incidents N2/N3 et analyses RCA Reporting d’activité et KPI 2. Techniques & Automatisation Scripts d’automatisation Documentation technique (procédures, configurations, runbooks) 3. Projets & Intégration Spécifications techniques Dossiers d’implémentation et de mise en production 4. Qualité & Conformité Mise à jour des procédures ITIL / sécurité Respect des standards internes 5. Transfert de Compétences Sessions de knowledge transfer Supports de formation Expertise souhaitée Maîtrise confirmée des plateformes Managed File Transfer (MFT), notamment Axway Synchrony (Gateway, Integrator, PassPort, Sentinel, CFT, Secure Transport). Compétences avancées sur Stonebranch Universal Agent (UAC, UDM, UEM, UCMD). Excellente connaissance des protocoles de transfert : SFTP, PeSIT. Solides compétences système sur environnements Linux et Windows. Connaissance des serveurs applicatifs : Apache Tomcat, Apache HTTP. Bon niveau en scripting (Shell, PowerShell, Python…). Maîtrise des concepts réseau (TCP/IP), virtualisation (VMware) et Cloud (Azure/AWS). Expérience de l’environnement ITIL et des outils ITSM (ServiceNow). Capacité à résoudre des incidents complexes, sécuriser des flux critiques et industrialiser des processus. Expérience en contexte international et environnement à fortes contraintes opérationnelles.
Freelance

Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX

Publiée le
DAX
SQL

15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Freelance
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
CDI

Offre d'emploi
Project Quality Engineer - Ferroviaire H/F

Publiée le

40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte de la mission : Viveris accompagne ses clients dans la conception et la fabrication d'équipements de haute technologie destinés au secteur normé ferroviaire. Dans ce cadre, nous recherchons un Project Quality Engineer, chargé d'assurer la conformité, la robustesse et la traçabilité des activités de développement tout au long du cycle projet. Intégré au sein de l'équipe de la Direction de la Qualité Projet, vous jouerez un rôle clé dans le pilotage qualité des développements logiciels et systèmes, en lien avec les exigences normatives du domaine ferroviaire. Responsabilités : - Accompagner les équipes projet pour garantir la conformité des activités de développement aux standards qualité internes et clients ; - Participer à la définition et à la gestion des exigences système et logicielles, assurer leur traçabilité et leur cohérence ; - Suivre la gestion de configuration des livrables techniques (logiciel, documentation, exigences) ; - Participer aux revues d'ingénierie et piloter les plans d'actions correctifs liés à la qualité ; - Réaliser des audits internes et revues de conformité, proposer des axes d'amélioration continue.
Freelance

Mission freelance
Senior Azure Data Engineer

Publiée le
Automatisation
Azure
Data Lake

6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Freelance

Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Freelance

Mission freelance
Lead Data Engineer Azure Databricks

Publiée le
Apache NiFi
Databricks
PySpark

3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
Freelance

Mission freelance
Data Engineer Python Azure

Publiée le
Azure
Databricks
PySpark

12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Freelance

Mission freelance
Data Engineer AWS / Snowflake (Urgent)

Publiée le
Amazon S3
AWS Cloud
Gitlab

6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
CDI

Offre d'emploi
QA Automation Engineer Mobile & Web

Publiée le
QA

50k-60k €
Paris, France
Télétravail partiel
Missions : · Définir et piloter la stratégie de tests automatisés (mobile, web, API) · Concevoir, développer et maintenir des tests end-to-end couvrant l’ensemble de l’expérience utilisateur (frontend mobile/web + backend) · Automatiser les tests mobile (iOS & Android) à l’aide de WebdriverIO + Appium · Mettre en place des tests API : créer et gérer des collections, écrire des tests d’intégration et de non-régression · Intégrer les tests dans les pipelines CI/CD (GitHub Actions, GitLab CI..) · Collaborer avec les équipes produit, dev (backend / mobile / web) pour identifier les scénarios critiques à automatiser · Analyser les résultats des tests, remonter les bugs, proposer des améliorations · Participer à la documentation des pratiques QA et à la montée en compétences de l’équipe · Aider à stabiliser les builds et réduire la “dette test” via la refactorisation des tests
Freelance
CDI

Offre d'emploi
QA Engineer Sénior - Cypress (h/f)

Publiée le
Cypress
Salesforce Commerce Cloud
Salesforce Sales Cloud

1 an
55k-62k €
450-550 €
Paris, France
Télétravail partiel
Intervenir au sein de la Digital Factory d’un client majeur du secteur de l’énergie et accompagner une équipe Scrum en garantissant la qualité des livraisons sur un périmètre applicatif stratégique, En tant que QA Engineer Sénior spécialiste en Cypress (h/f) , vous serez responsable de la stratégie de test et de la qualité de bout en bout des applications de votre périmètre. Vous évoluerez dans un environnement Agile et contribuerez activement à l’amélioration continue. Vos principales missions : Définir et piloter la stratégie de tests en Agile. Réaliser les recettes fonctionnelles et techniques des applicatifs. Être garant de la recette de bout en bout . Exécuter, suivre et documenter l’ensemble des cas de tests. Respecter les process IT relatifs à l’activité de test, assurer traçabilité et documentation. Mettre en place et exécuter des campagnes de non-régression via Xray. Maintenir les scénarios de test et jeux de données au fil des évolutions. Contribuer activement à l’ automatisation des tests avec Cypress. Fournir les indicateurs nécessaires au suivi des campagnes de tests.
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Chef de projet géomarketing

Publiée le
CRM
Data analysis
Data governance

12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
298 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous