L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 859 résultats.
Mission freelance
POT9017 - Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort
Almatek
Publiée le
SAP
6 mois
Niort, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients, Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort La mission consiste à piloter le stream métier MRO, en lien direct avec les équipes de maintenance, la DSI interne et les sites internationaux (UK/US). Les enjeux : gouvernance projet, consolidation des besoins, data cleansing/migration, préparation des UAT, qualité et conformité EN9100/PART145. Compétences recherchées : Expertise SAP PM/CS/MRO (SRV?05 idéalement) Pilotage projet SAP (10+ ans) Connaissance des processus MRO Idéalement : expérience aéronautique / contraintes qualité Anglais courant Disponibilité pour travailler on?site à Niort
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Mission freelance
Expert ITSM / EasyVista (Niort 79)
AKERWISE
Publiée le
EasyVista
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de la modernisation de ses outils de gestion des services IT, un grand groupe français du secteur assurantiel recherche un Expert ITSM spécialisé EasyVista pour accompagner le déploiement et l’évolution de sa plateforme de gestion des services. Contexte de la mission Vous interviendrez au sein d’un environnement Agile organisé en tribus et squads pluridisciplinaires (Product Owner, Agile Master, experts techniques…). La mission s’inscrit dans un programme de renouvellement des solutions ITSM , avec le déploiement de la plateforme EasyVista. Vous serez amené à intervenir sur l’ensemble des environnements techniques : production, pré-production et développement . Missions principales Administrer, maintenir et faire évoluer la solution EasyVista Garantir la cohérence et la qualité du paramétrage des outils ITSM Adapter les outils aux processus métiers et IT de l’entreprise Collaborer avec les équipes techniques et les collectifs Agile Accompagner les utilisateurs dans la prise en main et l’évolution des usages Assurer un support de niveau 3 sur les incidents et problèmes Réaliser une veille technologique et proposer des améliorations ou nouveaux usages
Offre d'emploi
Ingénieur Data Analyst Supply S&OP F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Bourges, Centre-Val de Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
[FBO] LeadTech DataOps - Niort - 1306
ISUPPLIER
Publiée le
9 mois
300-400 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) LeadTech DataOps – Référentiels pour une mission au sein d’un grand groupe du secteur assurance / services, dans un environnement Data Office / DataOps structuré. La mission s’inscrit dans une démarche d’industrialisation des usages Data, d’unification des pratiques d’exploitation et d’amélioration continue des environnements de déploiement. LeadTech DataOps Référentiels Contexte de mission L’équipe en charge du DataOps / Services Delivery Data pilote l’homogénéité des pratiques d’exploitation, le déploiement continu (cloud et on-prem) et la fiabilisation des usages autour des référentiels de données. Le/la consultant(e) interviendra en interface avec les équipes de conception, les release managers et les équipes de production. LeadTech DataOps Référentiels Objectifs principaux Déterminer les versions des composants en coordination avec les équipes de conception et release management Garantir la disponibilité et la stabilité des environnements (dev, test, CI/CD) Documenter les dépendances pour la supervision et le diagnostic Analyser les incidents (RCA) et suivre les plans de remédiation Gérer et documenter les configurations par environnement Vérifier la complétude des livrables (tests, documentation, conformité) et identifier les risques avant mise en production Participer à la définition et au suivi des exigences non fonctionnelles (sécurité, performance, scalabilité, disponibilité) Assurer la traçabilité des changements de configuration et de versions Automatiser les déploiements et maintenir les pipelines CI/CD. LeadTech DataOps Référentiels Profil recherché Expérience significative en DevOps / Release Management Bonne connaissance des contraintes de production Leadership, autonomie, réactivité, force de proposition Bon niveau de communication et capacité à travailler en équipe avec traçabilité des actions. LeadTech DataOps Référentiels Compétences techniques attendues Control-M Monitoring : Dynatrace / Grafana / Prometheus Informatica MDM / IDQ Couche d’échange : Tibco / Kafka / API Gateway NoSQL : MongoDB Hadoop : HDFS / Spark CI/CD & déploiement continu : GitLab / OpenShift API Management / REST Jira / Confluence / Easyvista / Google Workspace
Offre d'emploi
Expert Spark Data Engineer
R&S TELECOM
Publiée le
Apache Kafka
Apache Spark
Kubernetes
1 an
Rennes, Bretagne
Contexte de la mission : Pour un besoin interne , nous recherchons un Expert Spark Data Engineer La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence construite sur une architecture comprenant Kafka Connect, Spark, Kubernetes et MongoDB, déployée sur l’infrastructure OVH. Volumétrie cible : 350 bases de données 5 000 requêtes par seconde 1 To par an Tâches à réaliser : Analyse et état des lieux technique Préconisations d'amélioration : Amélioration Spark streaming + temps réel + dimensionnement infra Préconisations d'amélioration : Dimensionnement infra pour le streaming temps réel. Préconisations d'amélioration : Dimensionnement MongoDB & structuration de la donnée (standardisation des patterns) Document d'architecture cible & de préconisations
Offre d'emploi
Responsable d'application RUN - DATA
OBJECTWARE
Publiée le
Control-M
Oracle
PL/SQL
12 mois
40k-60k €
100-520 €
Nanterre, Île-de-France
La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données … Détails de la prestation : La mission consiste à assurer le suivi et le maintien en condition opérationnelle des applications de la squad Core Data (Bases Commerciales, Interfaces Délégataires ...) - Suivi des traitements batch en production - Support de niveau 2 en cas d'incident en production - Assistance auprès des utilisateurs - Analyse des dysfonctionnements et collaboration avec la TMA qui assure les corrections - Pilotage des plans d'actions pour la résolution des problèmes de fond (incidents récurrents, incidents critiques) - Pilotage opérationnel des trains de maintenance - Application des processus TDI (Traitement des Demandes et Incidents) en vigueur chez BNP Paribas Cardif - Production des indicateurs de performance (taux de disponibilité des applications, suivi du stock de fiches d'assistance) - Gestion/Renouvèlement des certificats Compétences fonctionnelles : Aucune Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - Informatica Powercenter - Linux - Ordonnanceur Control-M - CFT - GIT (Toolchain) Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : développeurs, experts, centre de test, exploitant …
Offre d'emploi
DBA Sql server (h/f)
Mobiskill (WEFY Group)
Publiée le
Microsoft SQL Server
6 mois
Rouen, Normandie
🧩 Administrateur Bases de Données (H/F) 📍 Localisation : Rouen (hybride possible) 🕐 Démarrage : ASAP 📄 Contrat : CDI ou Freelance 🧭 Contexte Dans le cadre du renforcement de son pôle infrastructure, notre client recherche un(e) Administrateur(trice) de Bases de Données afin d’accompagner la fiabilisation et l’évolution de ses environnements data, dans un contexte de transformation et de croissance. Vous intégrerez un système d’information riche et multi-applicatif, porté par des enjeux métiers forts, nécessitant un haut niveau d’exigence en matière de disponibilité, de performance et de sécurité. Votre rôle s’inscrit à la fois dans la gestion des environnements existants et dans l’accompagnement des évolutions techniques (modernisation, migration, amélioration continue). 🎯 Vos missions Au sein de l’équipe infrastructure, vous interviendrez sur les sujets suivants : Administrer, maintenir et faire évoluer les bases de données (principalement Microsoft SQL Server) Optimiser les performances des environnements afin de garantir la fiabilité des traitements et des temps de réponse adaptés aux usages métiers Mettre en place et gérer les dispositifs de sauvegarde, d’archivage et de sécurisation des données Assurer la continuité de service et intervenir en cas d’incident critique Accompagner les équipes de développement et les utilisateurs sur les problématiques liées aux bases de données Participer aux projets de migration et d’évolution technologique (notamment vers des environnements cloud) Réaliser les tests, documenter les environnements et contribuer à l’amélioration continue des pratiques 🛠️ Environnement technique (indicatif) Bases de données : Microsoft SQL Server, PostgreSQL, Redis Cloud : Azure / Azure SQL Outils : solutions de sauvegarde, monitoring et optimisation des performances 👤 Profil recherché Expérience confirmée en administration de bases de données Bonne maîtrise de SQL Server et des problématiques de performance Connaissance d’environnements cloud (idéalement Azure) Capacité à intervenir en production et à gérer des environnements critiques Sens du service, rigueur et réactivité face aux incidents À l’aise dans des contextes en évolution avec des enjeux de structuration 💡 Les + du poste Environnement technique riche et en transformation Rôle clé dans la fiabilité et la performance du SI Forte exposition aux enjeux cloud et modernisation Collaboration transverse avec les équipes techniques et métiers
Offre d'emploi
Data Analyst - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
76000, France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : CDI Salaire : 37k€ à 40k€ en fonction du niveau d'expérience Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
76000, France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL
OBJECTWARE
Publiée le
Dataiku
SAS
3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Mission freelance
Data Analyst Confirmé H/F
AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL
6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Mission freelance
Chef de projet Transverse Data/Reporting/Integration Layer/Référentiels
CRYSTAL PLACEMENT
Publiée le
SAP
12 mois
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Chef de Projet Data transverse afin de piloter des sujets critiques liés à la Data, au Reporting, aux flux d’intégration et aux référentiels. Mission Vous interviendrez sur un rôle transverse visant à coordonner et sécuriser la livraison des activités Data & Reporting, tout en pilotant les flux d’intégration et les dépendances entre plusieurs streams projet. Vous serez également responsable de l’orchestration d’une roadmap Data sur le chemin critique du programme, en collaboration avec les équipes métiers et IT. Responsabilités Pilotage des structures de données, référentiels et sujets MDM Coordination des activités Data & Reporting (prérequis, mapping, qualité des données) Priorisation des besoins Reporting avec les équipes métiers Suivi des flux d’intégration (API / Integration Layer / environnement Cloud) et gestion des risques associés Coordination transverse avec les différentes équipes projets Gestion des dépendances multi-streams Animation de la gouvernance projet et consolidation des plannings
Mission freelance
Application Developper - Nantes
Signe +
Publiée le
Apache Kafka
API
Java
190 jours
300 €
Nantes, Pays de la Loire
La Direction Data et IA de notre client souhaite renforcer son équipe de développement pour participer aux évolutions de son Meta-moteur de recherche sur Chat. Au sein d'une équipe agile composée d'une quinzaine de personnes (Product Marketing Manager, Product Manager, Product Owner, Ingénieur de test, Scrum master Tech Lead, Data, Dev) vous contribuerez à la mise en place d'outils d'IA pour les agents . Les compétences nécessaires pour ce poste : - Java PYTHON, Angular, Quarkus String K8S. - Des connaissances ou expériences en moteur de recherche serait appréciées. De plus la sélection se fera également sur les soft skills : - Esprit d’équipe et excellente communication. - Appétence pour les technologies et la technique de manière générale (veille techno, API, BDD vectorielle, agentique, LLM) - Autonomie et capacité à travailler dans un environnement agile. - Proactivité et capacité à proposer des solutions innovantes. - Curiosité et ouverture d’esprit pour les nouvelles technologies, notamment en IA. Qualifications : Java EE (J2EE),Python,Apache Kafka,Quarkus,
Mission freelance
POT8991 - Un Data Analyst Sur Massy
Almatek
Publiée le
Python
6 mois
270-400 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Sur Massy. Maîtrise parfaite du SQL et d'au moins un langage de programmation (Python, R). Maîtrise d'outils de datavisualisation avancés (Tableau, Looker Studio). Maîtrise des bonnes pratiques de code: test de cohérence, commentaires, documentation, etc Excellente rigueur: capacité à gérer une tâche détaillée et cadrée dans un ticket Jira de A à Z en respectant tous les points spécifiés capacité à documenter l’ensemble de ses rendus: périmètre d’analyse (période, type d'agrégation, etc), documentation technique et fonctionnelle de façon à ce que toute personne dans l’équipe puisse reprendre facilement ses analyses Expérience avec l’environnement GCP préférable (BigQuery notamment) Expérience avec des bases de données volumineuses (Big Data) et des outils associés (Hadoop, Spark) est un plus. Connaissance des techniques de machine learning est un plus Compétences analytiques : Excellente rigueur et capacité à gérer des projets complexes: capacité à prendre du recul sur la cohérence des analyses et sur les ordres de grandeurs Excellentes capacités analytiques, de résolution de problèmes et de pensée critique Capacité à construire des plans d'analyse détaillés et à gérer des tâches de A à Z incluant une proactivité dans la résolution de problèmes rencontrés Capacité à interpréter les résultats d'analyses complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2859 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois