L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 450 résultats.
Mission freelance
Architecte Talend / Senior Data Management - PLUS DE 10 ANS D'EXPERIENCE
NEXTWYN
Publiée le
Data management
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)
12 mois
Paris, France
Description du poste Dans le cadre de notre accord-cadre, nous recherchons un Architecte / Consultant Senior spécialisé en Data Management , avec une expertise confirmée sur l’écosystème Talend. La mission s’inscrit dans un environnement technique existant et nécessite une capacité d’intervention en totale autonomie , sans phase de montée en compétence préalable. Le consultant interviendra sur : la conception et l’architecture des flux de données , l’optimisation des traitements et de la qualité des données, la mise en place et l’évolution des solutions d’intégration, la restitution et la valorisation des données. Il participera également activement aux échanges techniques , à l’ animation des réunions projets et à la production de livrables d’architecture .
Offre d'emploi
Business Data Analyst sur Malakoff (92)
EterniTech
Publiée le
Microsoft Power BI
Qlikview
Tableau de bord
3 mois
Malakoff, Île-de-France
Missions description: The Business Analyst will be responsible for driving the data-related aspects of the PeopleSoft ERP but not only across the organization in different countries. This role involves analyzing business needs, ensuring data quality, and facilitating data integration and governance to support a successful rollout. The analyst will work closely with stakeholders to translate business requirements into technical specifications, ensuring data consistency, security, and compliance throughout the project lifecycle. The Business Analyst will lead the tudy of third-party management (service providers, partners, etc.) in the application landscape. o Country-by-country interviews. o ½ day per interview. ? Workshops with business, provider network, IT, … ? Share with O2C / P2P lead and other counterparts. ? Belgium as pilot country, Spain, . o ½ debriefing. Requested deliverables: -Key Deliverables for a Data-Driven Business Analyst in the PeopleSoft Rollout (France, Belgium, UK, US, Canada, Italy, Spain) 1. Business and Data Requirements Document 2. Process and Data Flow Analysis 3. Data Governance and Quality Plan 4. Functional and Configuration Documentation 5. Data quality improvement and Validation Strategy 6. Post-Implementation Data Monitoring and Continuous Improvement 7. Reporting and Stakeholder Communication Provide regular progress updates on data-related aspects of the study. Present insights on data quality, risks, and opportunities for each country. Ensure transparency and alignment with regional and global stakeholders. Prefered experience: Business analyst oriented Data Required technical skills : - Strong Data modeling skills (Conceptual Data Model design) - Interviewing skills - Ability to summarize the goal and the driver and make you understandable by business users - Ability to ask questions in a simple and understandable way, adapting the wording to the interlocutor - Ability to ask the same question from different angles and point of view or to different participant to cross check - Ability to contain the round of question to balance the interveiw duration to cover all the scope. - Ability to anlayze quickly the scope of knwoledge and skills of the business interviewed person - Ability to ask for additional or alternative business or IT SME and reschedule or adapt the - Analysis skills - Ability to dive into the root concepts and logic behind a serie of use cases exposed by the business - Ability to find the commonalities and the specificities - Strong organization skills to plan the meeting ensure attendence and relevance of the attendees - Ability to optimize the schedule of interview to enable preparation of the meeting and writing of the delivrables - Structuring into rigourous and articulable concepts the verbatim of the business - Expérience on Party Master Data Management Optionals technical skills - Proficiency in BI and reporting tools: Power BI, Tableau, QlikView, to create dashboards and visualize data quality, compliance, and performance metrics. Other skills or abilities expected: - Ability to relate technical concepts to system applications and user needs. - Problem solving skills. - Ability to work under pressure. - Ability to work with direct and remote teams. - Capacity to adapt quickly to changes and learn in all circumstances. - Advanced Listening & Communicating skills. - Team player and able to work collaboratively with others and leverage their skills. - Innovative thinking. Interpersonal skills: - Strong leadership and communication skills. Autonomy. - Involved with other teams supports to obtain inputs for the correct development of his/her job. - Ability to manage stakeholders and business demands. - Ability to be interface between technical and business teams by translation of exchanges. Background and experiences: - Minimum of 5years’ experience in data driven environnements, ideally in major and multi-cultural organizations. - Fluent English (speaking and writing as english will be the work language) and French are a plus.
Mission freelance
Manager Transition Data Factory (H/F)
Cherry Pick
Publiée le
Microsoft Power BI
Pilotage
6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Chef de projet Data - Lille
ICSIS
Publiée le
Méthode Agile
1 an
450-550 €
Lille, Hauts-de-France
La mission consiste à : Accompagner les interlocuteurs métier Piloter les projets de mise en place de flux Data Produire l'ensemble des livrables en accord avec la méthodologie Documenter et industrialiser Compétences attendues : Expériences significatives en chefferie de projet autour de la DATA Bonne maitrise technologique Pilotage de plusieurs projets simultanés Animation de réunions projets et suivi de plan d'action Animation d'acteurs internes et externes Mission basée sur la métropole lilloise avec télétravail partiel
Mission freelance
Consultant Sales Ops / CRM Operations Salesforce (H/F)
Freelance.com
Publiée le
CRM
Data quality
Salesforce
3 mois
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Sales / Investor Coverage évoluant dans un environnement international , nous recherchons un Consultant Sales Ops / CRM Operations orienté exécution et optimisation des outils commerciaux. Le consultant interviendra comme référent opérationnel CRM et outils go-to-market , avec un focus fort sur Salesforce , la qualité de la donnée et l’accompagnement des équipes commerciales au quotidien. L’objectif de la mission est de fiabiliser l’existant, améliorer l’adoption des outils et optimiser les workflows commerciaux , sans refonte complète du CRM. Missions principales Administrer, structurer et optimiser l’environnement Salesforce Garantir la qualité, la cohérence et la complétude des données CRM Structurer et fiabiliser les pipelines commerciaux Optimiser les workflows liés à la prospection, au lead management et au suivi des opportunités Mettre en place et améliorer les reportings, dashboards et KPI commerciaux Gérer le backlog des demandes métiers et suivre les évolutions livrées Assurer la coordination entre le CRM et les autres outils de l’écosystème commercial Accompagner les équipes dans l’usage quotidien des outils Identifier les irritants opérationnels et proposer des améliorations concrètes Assurer la documentation, la traçabilité des changements et la mise à jour des procédures Participer à la montée en compétence des utilisateurs Le poste comporte une forte dimension de support de proximité entre les équipes métier, la donnée et les outils digitaux .
Offre d'emploi
Ingénieur Systèmes Data
VISIAN
Publiée le
Ansible
SQL
1 an
Île-de-France, France
Missions Contrôle quotidien de la production (morning check) : En cas d’incident et/ou de retard sur les traitements et/ou les flux, s’assurer que les bonnes équipes prennent en charge le problème et que les entités sont informées dans les meilleurs délais. D’autres environnements peuvent être inclus dans cette supervision, mais la priorité reste la production. Suivi du cycle de vie des incidents de production avec les filiales, avec déclenchement d’escalade si nécessaire : Communication régulière auprès des entités pour assurer une bonne visibilité sur l’évolution des incidents. Support aux différentes équipes dans le diagnostic et la résolution des problèmes liés aux données. Préparation de rapports : incidents, événements majeurs, et propositions d’amélioration des tableaux de bord de supervision. Gestion des demandes d’infrastructure (bases de données, stockage, flux, ordonnancement, supervision, etc.) sur les différents environnements : Responsable du suivi des changements (monitoring, reporting, communication). Coordination des livraisons (toolchain CI/CD) pour les environnements de pré-production et de production, après validation des phases de test par les entités. Analyse des changements à effectuer en production et formulation de recommandations. Analyse et évaluation des incidents opérationnels afin d’optimiser les actions correctives et préventives des équipes filiales. Promotion d’une culture d’apprentissage continu et d’amélioration au sein de l’équipe. Outils IT Bonne connaissance de : Gestion des processus ITIL ServiceNow JIRA Maîtrise des éléments suivants : Logiciel Dremio (SQL) Monitoring & alerting : Dynatrace, ELK (Kibana, Grafana) Cycle de vie de développement logiciel (SDLC) Principes et rituels Agile Toolchain CI/CD (Gitlab, Jenkins, DBT…) Orchestrateurs : Autosys, Airflow, Reflections Unix (Shell) En option / appréciés : Réseaux de production (VIP, proxies, firewalls, micro-segmentation…) Outils de DataViz : Tableau, Power BI Stockage : HDFS, S3, Iceberg, Parquet
Offre d'emploi
Tech Lead Databricks
VISIAN
Publiée le
PySpark
Python
1 an
40k-80k €
400-730 €
Paris, France
Contexte Une équipe centralisée gère la plateforme mais de nombreuses équipes (Feature Team organisées par domaine de données) travaillent sur la Data Platform . Toutes les équipes fonctionnent en mode agile. Un Tech Lead est recherché pour une Feature Team du client . La maîtrise de l'outil DATABRICKS est un prérequis. Missions Conception, développement et maintenance des pipelines de données Cadrage technique Garant de la mise en production des traitements au sein de la plateforme Optimisation du code pour chaque traitement, maîtrise de l'usage Databricks au regard des coûts Maîtrise de l'architecture médaillon de Databricks, des problématiques de qualité de données, du DevOps Développement sous Databricks (Python / SQL / Spark) Force de propositions techniques Capacité à encadrer / coacher des data engineers juniors, challenger la solution et assurer un rôle de tech lead dans l'équipe
Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine
Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric
12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Mission freelance
Expert Devops IA h/f
Freelance.com
Publiée le
AWS Cloud
DevOps
IA Générative
6 mois
400-600 €
Saint-Denis, Île-de-France
Dans le cadre d'un programme d'Accélération Digitale, notre client recherche un Expert DevOps IA Générative pour intégrer une équipe Data & IA et contribuer à la conception, au développement et à l'industrialisation de solutions basées sur des modèles de langage (LLM) et l'IA Générative. Évaluer les cas d'usage IA Générative des métiers, collecter les besoins et proposer des solutions techniques adaptées Concevoir et développer des pipelines RAG (préparation de données textes, images, tableaux), architectures agentiques et fine-tuning de modèles LLM Mettre en place et évaluer les performances des POCs/POTs et être force de proposition sur les choix techniques Optimiser les ressources (mémoire, puissance de calcul, micro-services) pour des déploiements à l'échelle sur AWS Industrialiser et mettre en service les solutions IA, assurer le MCO des solutions déployées Accompagner les équipes Data Scientists dans l'intégration des modèles dans les applications existantes ou nouvelles Cette mission représente un enjeu stratégique clé pour la transformation digitale d'un acteur de premier plan dans le secteur des transports.
Offre d'emploi
Data Engineering DBT / SQL (430€)
BEEZEN
Publiée le
DBT
6 mois
40k-81k €
340-430 €
Lyon, Auvergne-Rhône-Alpes
● Maîtriser DataForm pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DataForm pour structurer les pipelines data. ● Gérer des fl ux temps réel avec Pub/Sub. ● Automatiser les workfl ows data via GitLab CI/CD et Docker Compose. ● Travailler sous Linux et en ligne de commande. ● Versionner le code avec Git. ● Collaborer en environnement agile (Scrum). - Expériences (au moins 2 ans) sur des projets intégrant DBT 1 JOUR SUR SITE
Mission freelance
CONSULTANT SENIOR SAP BW/DATASPHERE H/F
AXONE BY SYNAPSE
Publiée le
BigQuery
Data Lake
Microsoft Power BI
3 mois
Auvergne-Rhône-Alpes, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Consultant Senior SAP BW / Datasphere H/F afin d’accompagner un programme stratégique de transformation du reporting financier. Dans un contexte hautement confidentiel lié à des enjeux stratégiques et financiers majeurs, le client souhaite remplacer son environnement SAP BW en fin de support (BEX/BIA) par une solution moderne orientée DataLake et BI. Le consultant interviendra dans un cadre sécurisé nécessitant discrétion et rigueur, avec une exposition directe à des décisions structurantes. La mission comprend une phase d’étude, de cadrage, d’avant-vente ainsi que la mise en œuvre opérationnelle. Le consultant agira comme référent technique et stratégique, en contribuant activement aux choix d’architecture et aux orientations data à long terme. Objectif et livrable: Étude de cadrage complète Analyse de l’existant SAP BW Cartographie des données et processus métiers Benchmark des solutions (Datasphere, Snowflake, BigQuery) Recommandations d’architecture cible Plan de migration détaillé Chiffrage global projet + RUN Support avant-vente et construction de proposition Compétences attendues: Expertise SAP BW (modélisation, extraction, reporting) Connaissance SAP Datasphere Expérience DataLake (Snowflake, BigQuery) Architecture data & BI Outils de reporting (SAC, Power BI, MicroStrategy, Jedox) Cadrage projet et recueil des besoins métiers Estimation budgétaire et chiffrage projet Migration SI décisionnel
Mission freelance
Data-AI-Analytics / Business Intelligence
Nicholson SAS
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI
6 mois
300-420 €
Obernai, Grand Est
Consultant Data & Enterprise Architecture Informations Pratiques: Secteur : Industrie / Excellence Opérationnelle Localisation : Obernai (67) – Présentiel Démarrage : ASAP Durée : Jusqu’au 21/09/2026 (Visibilité long terme) Contexte de la mission Dans le cadre d’une transformation organisationnelle majeure ("Transform 2025"), le groupe souhaite aligner son écosystème digital sur sa nouvelle structure. L'enjeu est de piloter l'adaptation des outils d’ Enterprise Architecture (LeanIX) et la chaîne de valeur Data & Analytics associée. Vos Missions Rattaché(e) à l’équipe Enterprise Architecture, vous intervenez sur l’ensemble du cycle de données, du paramétrage de l’outil métier à la restitution analytique : Architecture & Paramétrage : Ajuster la configuration de LeanIX pour refléter la nouvelle structure organisationnelle. Data Engineering (Stack Azure) : Adapter les flux et le modèle de données (ETL, bases de données) pour garantir la continuité du reporting. Data Visualization : Mettre à jour et optimiser les rapports Power BI existants. Prospective : Participer à l’étude de faisabilité et à l’évaluation de la solution ARIS comme alternative stratégique. Expertise Technique & Livrables Configuration EA : Paramétrage expert LeanIX. Ingénierie de données : Azure Data Factory, Azure Synapse (Dedicated SQL Pool), Azure Functions (Python), déploiement via scripts Bicep. Business Intelligence : Modèles sémantiques et rapports Power BI. Documentation : Rédaction de l’ensemble des supports techniques en anglais . Conditions de la prestation Grille de prix (TJM max) : Confirmé (4-7 ans) : 300 € Senior (8-10 ans) : 360 € Expert (+10 ans) : 420 € Critères d'évaluation : Respect des jalons, conformité aux standards de qualité internes et proactivité dans la gestion des interfaces métiers.
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Mission freelance
Tech Lead Data
Nicholson SAS
Publiée le
Azure
Databricks
Python
9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2450 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois