L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 737 résultats.
Offre d'emploi
Product Owner Data
SMARTPOINT
Publiée le
Agile Scrum
6 mois
50k-55k €
400-450 €
Île-de-France, France
En tant que Product Owner Data, vous serez responsable de : Recueillir et analyser les besoins métiers en lien avec les équipes métiers et techniques Définir et prioriser le backlog produit en fonction de la valeur business Rédiger les user stories et spécifications fonctionnelles Piloter les développements en collaboration avec les équipes Data (Data Engineers, Data Analysts, Data Scientists) Garantir la qualité des livrables et leur adéquation avec les besoins utilisateurs Suivre les indicateurs de performance et proposer des axes d’amélioration Animer les rituels Agile (daily, sprint planning, review, rétrospective)
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à 30 minutes de Nantes (44), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : 30 minutes de Nantes (44) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Offre d'alternance
Offre d'Apprentissage – Ingénieur IA & Data Science appliquée à l'Ingénierie F/H
█ █ █ █ █ █ █
Publiée le
Python
SQL
Saint-André-sur-Cailly, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre premium
Mission freelance
Consultant technico-fonctionnel eCommerce (H/F) - 75
MP Advertising
Publiée le
Magento
3 mois
600-700 €
Paris, France
Dans le cadre du renforcement de l’équipe digitale, nous recherchons un Consultant e-commerce senior pour intervenir sur le pilotage et l’optimisation de plateformes e-commerce basées sur Magento et Sylius. Le consultant jouera un rôle central dans la coordination des différents prestataires techniques et métiers, en assurant la cohérence des actions menées et le respect des objectifs projet. Il sera également en charge du suivi opérationnel des projets e-commerce, de la structuration des travaux, ainsi que de la préparation et de la restitution d’un reporting clair et synthétique à destination des parties prenantes.
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Offre d'emploi
Senior Data Scientist
Gentis Recruitment SAS
Publiée le
Machine Learning
MLOps
Python
6 mois
53k-91k €
530-1k €
Luxembourg
Nous recherchons un(e) Senior Data Scientist pour concevoir, développer et déployer des modèles de data science à fort impact métier (segmentation, churn, fraude, marketing, prévision, optimisation). Vous interviendrez sur l’ensemble du cycle de vie des projets : exploration des données, feature engineering, modélisation, évaluation, mise en production et monitoring. Vous serez également responsable de la performance et de la robustesse des modèles dans le temps (dérive, recalibrage), tout en garantissant leur explicabilité et leur conformité. En collaboration avec les équipes Data Engineering, IT et métiers , vous contribuerez à l’industrialisation des solutions et à leur adoption. Vous participerez également à la diffusion des bonnes pratiques et jouerez un rôle de référent technique auprès de profils plus juniors.
Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Mission freelance
Consultant SAP Opentext VIM Confirmé
EBMC
Publiée le
SAP
SAP ECC6
SAP S/4HANA
3 mois
400-650 €
France
Dans le cadre d’activités de TMA et de projets autour de la dématérialisation des factures fournisseurs, nous recherchons un consultant SAP spécialisé sur la solution OpenText VIM. La mission consiste à accompagner le client sur les enjeux liés à la facturation électronique, notamment dans le contexte des évolutions réglementaires en France. Le consultant interviendra sur le paramétrage de la solution VIM, l’analyse des besoins métiers et la mise en œuvre des évolutions nécessaires, tout en assurant la cohérence avec les processus SAP existants. Il participera également aux activités de support, de maintenance évolutive et d’amélioration continue des solutions en place.
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Mission freelance
Ingénieur·e Data / DevOps
ATTINEOS
Publiée le
DevOps
1 an
320-470 €
Rouen, Normandie
Vous aimez évoluer sur des environnements data, manipuler de gros volumes de données et intervenir aussi bien en développement qu’en exploitation ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e Data / DevOps pour renforcer une équipe intervenant sur des sujets à forte dominante data et bases de données. Au sein de l’équipe, vous interviendrez principalement sur des activités de RUN avec une forte composante développement, dans un environnement orienté data. Vos principales responsabilités : Développement autour des environnements Altair Intervention sur des problématiques data et bases de données Maintien en conditions opérationnelles des applications Analyse et résolution d’incidents Optimisation des traitements et des performances Contribution à l’amélioration continue des outils et des process Environnement technique : Altair, Bases de données (SQL), Environnement data, Notions DevOps et infrastructure (appréciées)
Mission freelance
Manager Transition Data Factory (H/F)
Cherry Pick
Publiée le
Microsoft Power BI
Pilotage
6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5737 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois