Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 726 résultats.
Mission freelance
Data Engineer (Projet de Migration MGTS)
HAYS France
Publiée le
Python
Snowflake
Stambia
3 ans
100-450 £GB
Lille, Hauts-de-France
Mission principale : Dans le cadre du build d’un projet de migration technique pour une de nos BUs du groupe (MGTS), nous recherchons un Data Engineer. Il travaillera principalement avec Elodie Madoux, cheffe de projet Data. Il devra être assez autonome, même si nos Tech Lead seront en supervision si besoin. Nous recherchons donc un profil ayant déjà quelques années d’expérience. Compétences clés recherchéesIntégration & ETL Lecture, compréhension et manipulation de flux de données Maîtrise opérationnelle de Talend Maîtrise de la solution Stambia / Semarchy Langages Excellente maîtrise du SQL Niveau intermédiaire en Python Environnement Data Bonne connaissance de Snowflake Visualisation (atout) Maîtrise de Tableau appréciée
Mission freelance
SAP Master data (SD/MM)
ASENIUM
Publiée le
Master Data Management (MDM)
6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
Offre d'emploi
Global Head of Data & Digital Transformation
Inventiv IT
Publiée le
Data Strategy
IA
Pilotage
1 an
85k-100k €
800-920 €
Paris, France
CONTEXTE : Au sein d'un pôle innovant de R&D "Pharma", responsabilité globale de la stratégie Data, Digital et IA afin d’accélérer le développement et transformer les pratiques scientifiques. Rôle stratégique au plus haut niveau, en interface directe avec le top management et les fonctions Digital/IT groupe. OBJECTIFS DE LA MISSION : Définir et exécuter la stratégie globale Digital / IA pour la R&D, alignée avec les objectifs corporate. Piloter une équipe internationale de 20 Data Analyst déployés sur les sites R&D. Garantir la continuité et la conformité des opérations. Superviser le déploiement de solutions Digital, Data et IA via l’équipe produit digitale Gérer un portefeuille stratégique d’initiatives digitales (~10 M€ de budget annuel) avec priorisation basée sur la valeur business et le ROI. Être l’interface principale entre la R&D Vaccins et les fonctions Digital/IT groupe. Porter la gouvernance data et développer une culture data transverse de bout en bout Conduire la transformation culturelle et la montée en compétences digitales des équipes scientifiques. PROFIL RECHERCHÉ : Formation : PhD ou équivalent scientifique. Expertise démontrée en développement "Pharma" Compétences clés : Leadership confirmé en transformation digitale, Data et IA en environnement scientifique ou santé. Capacité à définir et déployer une stratégie transformationnelle globale. Expérience de pilotage budgétaire significative. Forte capacité d’influence C-level. Expérience en conduite du changement dans des organisations complexes. Capacité à démontrer la valeur business et le ROI des initiatives digitales. Excellente capacité de communication entre experts techniques et scientifiques. Profil Executive / Direction Programme / Transformation Digitale R&D Pharma NIVEAU DE SÉNIORITÉ : Direction / Head of Global Function Management international Pilotage budget multi-million € Exposition COMEX / C-level
Offre d'emploi
Data Analyst sénior
Proxiad
Publiée le
Microsoft Excel
Python
SAS
40k-45k €
Lille, Hauts-de-France
🚀 Qui sommes-nous ? Proxiad est une ESN à taille humaine, attachée à la proximité, à la qualité de ses missions et à l’accompagnement de ses collaborateurs. Dans le cadre d’un projet stratégique chez l’un de nos clients, nous recherchons un Consultant Data / Analyst expérimenté pour accompagner la transformation de notre client. 🎯 Votre mission Vous jouerez un rôle clé dans l’analyse et la valorisation de la connaissance client afin d’éclairer les décisions stratégiques. À ce titre, vous serez amené(e) à : Analyser le portefeuille clients : segmentation, comportements, churn, fidélisation, valeur client Concevoir et piloter des études ad hoc à forte valeur stratégique Produire des tableaux de bord et indicateurs clés (Power BI) Identifier des opportunités de croissance et d’optimisation Formuler des recommandations claires et actionnables auprès des équipes métiers et de la direction Garantir la qualité, la cohérence et la fiabilité des données exploitées
Offre d'emploi
Développeur web / Data (H/F)
ADSearch
Publiée le
50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Offre d'emploi
Data Engineer 2 - 5 ans (aws) PARIS
Cogniwave dynamics
Publiée le
Data science
Paris, France
Nous recrutons un(e) Data Engineer confirmé(e) pour rejoindre notre équipe et travailler en étroite collaboration avec nos experts Data Science (profil ingénieur ML/Data), spécialisé dans les pipelines IA, le NLP, les LLM, le RAG et AWS Bedrock. Le poste est basé à Paris, avec possibilité de télétravail, au sein d’une équipe dynamique orientée IA générative et analyse intelligente de documents. 💼📍 🎯 Missions principales Concevoir, développer et maintenir des pipelines de données robustes (ETL, SQL / NoSQL). Intégrer, déployer et optimiser des modèles de Machine Learning et LLM (Scikit-learn, Transformers, LangChain). Mettre en œuvre des architectures cloud AWS : S3, Bedrock, EC2, ECR / ECS Fargate. ☁️ Développer des APIs (Flask / FastAPI), des chatbots RAG et des outils de matching CV / offres. Collaborer sur des projets OCR, NLP et de visualisation de données (Power BI). 📊 Animer des formations et interventions publiques sur l’IA (ateliers, webinaires) afin de partager l’expertise et vulgariser les avancées ML/LLM auprès de clients et partenaires. 🎓
Offre d'emploi
Data Engineer Stambia
ANDEMA
Publiée le
Qlik Sense
Qlikview
Semarchy
3 mois
Lille, Hauts-de-France
Contexte Pour le même client Retail, nous recherchons un Data Engineer spécialisé Stambia afin de renforcer l'équipe Data sur les sujets d'intégration, de transformation et d'industrialisation des flux. Vous interviendrez au coeur de l'architecture Data et travaillerez en étroite collaboration avec les équipes BI et métiers. L'objectif : garantir la fiabilité, la performance et la scalabilité des flux de données alimentant le DataWarehouse et les outils décisionnels. Missions 1. Data Engineering & Intégration - Concevoir, développer et maintenir les flux d'alimentation via l'ETL Stambia. - Intégrer des données issues de multiples sources (ERP, bases SQL, fichiers plats, API...). - Développer et optimiser les transformations et règles de gestion. - Industrialiser les traitements batch et automatiser les flux. - Mettre en place des contrôles qualité et mécanismes de supervision. 2. Architecture & Modélisation - Participer à l'évolution du DataWarehouse. - Contribuer aux choix d'architecture Data. - Optimiser les performances des traitements et des bases de données. - Assurer la cohérence et la traçabilité des données. 3. Maintenance & Support - Assurer le MCO des flux ETL existants. - Diagnostiquer et corriger les incidents. - Maintenir la documentation technique. - Proposer des améliorations continues sur les processus d'intégration Environnement technique Stambia SQL (PostgreSQL, Oracle, SQL Server) DataWarehouse / DataLake QlikView / Qlik Sense (environnement cible) JIRA, Git Agile Scrum / Kanban
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 10z4yhzwyi
Mission freelance
Data Architect
Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality
3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)
Webnet
Publiée le
Azure
Azure Data Factory
BI
12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production
Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)
AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI
3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Offre d'emploi
ALTERNANCE - Data Scientist H/F
█ █ █ █ █ █ █
Publiée le
Big Data
Cassandra
Deep Learning
Boulogne-Billancourt, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Expert data DataCloud (DataBricks) Nantes /st
WorldWide People
Publiée le
Databricks
12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Offre d'emploi
Data Engineer Sénior DBT / SQL
Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1726 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois