Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 736 résultats.
Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt
Almatek
Publiée le
Data analysis
4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
Offre d'emploi
Data Analyst Power BI (F/H)
CELAD
Publiée le
Big Data
Confluence
Data analysis
12 mois
36k-45k €
400-480 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Analyst Power BI pour intervenir chez un de nos clients du secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Accompagner l’équipe DATA dans la gestion du CHANGE (projets et évolutions) et du RUN (MCO) des applications BI - Contribuer à la mise en œuvre de la feuille de route DATA de la DSI en apportant votre expertise technique - Réaliser des extractions de données issues du système décisionnel et des différentes sources métiers - Concevoir et maintenir des tableaux de bord et reportings BI pour les équipes métier - Travailler en étroite collaboration avec la squad Data et les différents interlocuteurs techniques et fonctionnels - Participer à l’amélioration continue des solutions BI et à l’optimisation des processus d’analyse de données - Assurer la fiabilité et la cohérence des données utilisées dans les outils décisionnels
Mission freelance
Data Analyst confirmé
Codezys
Publiée le
Data visualisation
PySpark
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Mission freelance
Ingénieur Cloud Data plateforme
Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake
12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Mission freelance
Team Leader Data engineering
Codezys
Publiée le
Confluence
JIRA
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
Offre d'emploi
Architecte Data & IA H/F
JEMS
Publiée le
75k-90k €
Nantes, Pays de la Loire
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : j1bt6zbvdy
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Mission freelance
Consultant SAP Data Migration
CRYSTAL PLACEMENT
Publiée le
SAP
12 mois
Paris, France
Nous recherchons des consultants SAP confirmés / Data Migration Experts pour un projet stratégique de migration S/4HANA . Profil recherché : BA confirmé ou Data Migration Expert Expérience sur projets Core Model ou roll-out SAP Compréhension des processus industriels / manufacturiers (PP / QM / MM / APO) Capacité à structurer méthodologie, templates et règles de migration Forte posture coordination, animation et arbitrage Mission : Pilotage complet de la migration de données : préparation, cycles MOCK / UAT et production Définition et suivi des templates, mapping rules et séquences de chargement Support aux équipes métier et animation de la communauté Data Migration Experts Durée : 1 an minimum Séniorité : 4 à 7 ans d’expérience Intéressé(e) ou à recommander ? Envoyez votre CV directement pour être contacté.
Offre d'emploi
Architecte data - Secteur Industrie
OCTOGONE
Publiée le
Cybersécurité
2 ans
Hauts-de-Seine, France
Objectif : Garantir la cohérence, la pérennité et la sécurité de l'ensemble des solutions techniques et applicatives déployées Concevoir l'architecture des données (modèles, flux, stockage, plateformes). Définir les principes de gouvernance et de qualité des données. Garantir la sécurité et l'exploitabilité de la data. TELETRAVAIL : 2 jours / semaine / Déplacements possibles à l’étranger dans le cadre de certaines missions Une expérience en environnement Industriel - Usine est obligatoire
Offre d'emploi
Data Engineer DATABRICKS
UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake
1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Offre d'emploi
Consultant Data – Analyst
VISIAN
Publiée le
Microsoft Excel
Microsoft Power BI
MySQL
1 an
40k-45k €
140-440 €
Lille, Hauts-de-France
Descriptif du poste Nous recherchons 1 Consultant Data – Analyst expérimenté pour accélérer la transformation data au sein du département Marketing Client. Il jouera un rôle clé dans l'étude de la connaissance client, et dans la propagation de celle-ci au sein de l'entreprise. Pour ce faire, il devra à la fois être doté d'une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique Produire des tableaux de bord, indicateurs clés et analyses décisionnelles Identifier des opportunités de croissance, d'optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Garantir la qualité, la fiabilité et la cohérence des données utilisées
Mission freelance
Data Manager
Tenth Revolution Group
Publiée le
DBT
Snowflake
1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1736 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois