L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 123 résultats.
Offre d'emploi
Proxy Product Owner Data – Transformation Finance Corporate F/H
SMARTPOINT
Publiée le
Dataiku
Finance
P2P
1 an
50k-76k €
500-680 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Transformation Finance , nous recherchons un(e) Proxy Product Owner Data pour accompagner la Corporate Finance au sein d’un environnement international. Rattaché(e) au Group Data Office , vous intervenez comme véritable pont stratégique entre les équipes Finance, IT et Data , afin de garantir la bonne intégration des enjeux data dans les projets de transformation. Les domaines couverts incluent : L’automatisation des processus Finance Le cycle P2P (Procure-to-Pay) Le cycle O2C (Order-to-Cash) L’amélioration continue des processus financiers Votre mission En tant que Proxy Product Owner Data, vous assurez que toutes les initiatives de transformation Finance comportant une dimension data : Sont correctement identifiées et priorisées Sont alignées avec les standards du Group Data Office Respectent les patterns d’architecture et la gouvernance groupe Sont délivrées efficacement et adoptées par les métiers Vos responsabilités Identification & priorisation des initiatives data Détecter les projets Finance à fort impact data Évaluer la valeur business et la faisabilité Alimenter et prioriser le backlog Data groupe Produire les analyses d’impact data Traduction des besoins métier Transformer les besoins Finance en exigences techniques et data Valider les modèles de données et les flux Garantir l’alignement avec l’architecture groupe Formaliser les spécifications fonctionnelles Expertise Processus Finance Apporter votre expertise sur les cycles P2P et O2C Accompagner les projets d’automatisation Cartographier les processus et définir les cas d’usage Formuler des recommandations d’amélioration Automatisation & Dataiku Contribuer aux cas d’usage d’automatisation via Dataiku (ou outil équivalent) Garantir l’intégration et la qualité des données Définir les besoins en pipelines data Coordination & delivery Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et lever les risques et dépendances Assurer un reporting régulier auprès des parties prenantes Gouvernance & standards Garantir la conformité aux standards Data groupe Assurer la qualité, la sécurité et la gouvernance des données Produire la documentation d’alignement
Mission freelance
Data Engineer
Signe +
Publiée le
Deep Learning
MLOps
Python
6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Offre d'emploi
LLMOps Engineer / GenAI Engineer H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre du développement de ses activités autour de l'intelligence artificielle, un grand groupe industriel renforce son hub dédié à la stratégie et au déploiement de solutions IA, notamment dans le domaine de l'énergie. La mission s'inscrit dans un contexte de forte croissance des usages autour des LLM et de la GenAI, avec des enjeux d'industrialisation, de passage à l'échelle et d'intégration dans des produits et services. L'environnement de la mission repose sur des architectures cloud AWS, avec une forte culture DevOps (CI/CD, IaC) et l'utilisation de frameworks GenAI tels que Langchain et LangGraph. Vous interviendrez au sein d'une équipe en charge du développement et de la mise en production de solutions basées sur des modèles de langages et des agents intelligents. Responsabilités : - Concevoir et procéder au déploiement et à l'industrialisation des pipelines LLMOps dans un environnement cloud ; - Participer activement à la mise en production de solutions GenAI, en garantissant leur performance, leur robustesse et leur scalabilité ; - Collaborer étroitement avec les équipes data et IA afin de répondre aux besoins métiers et d'optimiser les architectures existantes.
Offre d'emploi
Consultant Data / BI – SQL / ETL / Power BI (H/F)
CITECH
Publiée le
Data analysis
6 mois
40k-50k €
350-390 €
Nancy, Grand Est
CITECH recrute ! 👌 Vous souhaitez mettre vos compétences Data & Business Intelligence au service d’un environnement technique structuré et orienté données ? Nous recherchons un Consultant Data / BI (H/F) pour intervenir au sein d’un environnement décisionnel exigeant, dans le cadre du renforcement d’une équipe Data travaillant sur des sujets de reporting, exploitation de données et data marts . Vous intégrerez une équipe technique existante et collaborerez étroitement avec les équipes métiers et data afin de concevoir et faire évoluer les solutions de reporting décisionnel. Description du poste Au sein d’un environnement data structuré, vos principales responsabilités seront : 🔹 Concevoir, développer et maintenir des reportings décisionnels 🔹 Développer des rapports et indicateurs BI 🔹 Analyser les besoins métiers et proposer des solutions de reporting adaptées 🔹 Développer et optimiser des requêtes SQL / PL-SQL 🔹 Participer à la conception, à l’alimentation et à l’exploitation de data marts 🔹 Contribuer à l’ amélioration de la qualité, de la fiabilité et de la performance des données 🔹 Assurer la documentation des développements et des reportings réalisés
Mission freelance
Data Architect (Secteur Luxe)
Nicholson SAS
Publiée le
Azure DevOps
Git
Github
8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
Mission freelance
SAP Master data (SD/MM)
ASENIUM
Publiée le
Master Data Management (MDM)
6 mois
Île-de-France, France
Je recherche actuellement pour mon client final, un consultant SAP Master Data avec une solide expérience MM/SD pour un projet autour de la structuration et gouvernance des données produits dans SAP. Aujourd’hui, plusieurs équipes (achats, supply, commerce, finance) gèrent leurs propres fichiers, ce qui crée parfois des incohérences entre les groupes de marchandises, familles produits, hiérarchies et la valorisation financière. La mission consiste donc généralement à : 1. Centraliser et structurer les données définir un référentiel unique dans SAP harmoniser groupes de marchandises, familles produits, hiérarchies 2. Nettoyer et fiabiliser les données supprimer les doublons corriger les incohérences entre fichiers Excel et SAP mettre en place des règles de création/modification 3. Mettre en place une gouvernance définir qui crée quoi standardiser les processus de gestion du Master Data Démarrage-ASAP
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Offre d'emploi
Ingénieur Réseau & Sécurité N2 (H/F)
AVA2I
Publiée le
Alcatel
Aruba
Cisco
3 ans
Île-de-France, France
Dans le cadre d’un remplacement , nous recherchons un Ingénieur Réseau & Sécurité N2 afin de renforcer l’équipe infrastructure. Le poste s’inscrit dans un environnement technique exigeant , nécessitant expertise réseau, autonomie et un bon esprit d’équipe. Missions principales Assurer l’ exploitation, l’administration et le support niveau 2 des infrastructures réseau et sécurité Diagnostiquer et résoudre les incidents complexes réseau (LAN, WiFi, équipements réseau) Participer à la maintenance préventive et corrective des infrastructures Contribuer aux évolutions de l’architecture réseau Travailler en étroite collaboration avec les équipes N1, N3 et les équipes IT Rédiger et maintenir la documentation technique Participer aux interventions programmées de nuit (mises à jour, changements, maintenance) Environnement technique LAN Cisco (switching / routing) WiFi Aruba Alcatel Exploitation et support N2 Environnements réseaux d’entreprise Des notions en sécurité réseau sont appréciées.
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
Développeur Full-Stack Java/Angular confirmé (H/F)
ALLEGIS GROUP
Publiée le
Angular
Java
Spring
1 an
Seclin, Hauts-de-France
Teksystems recherche pour son client grand compte un·e développeur·se Fullstack confirmé·e pour intervenir sur un système d’information stratégique du secteur public, dédié aux titres sécurisés (CNI, passeports, etc.). La mission principale consiste à maintenir, faire évoluer et moderniser cette plateforme critique , en intervenant sur l’ensemble de la chaîne : analyse, développement, qualité, livraison et support. Vous rejoignez une équipe expérimentée, composée d’experts techniques, métier et sécurité. Environnement techniqueBackend (dominant) Java Spring Boot Spring Hibernate Frontend (ponctuel) Angular (versions récentes) Thymeleaf JSP JavaScript Responsabilités Analyse & Conception Participer aux ateliers de recueil du besoin. Contribuer aux choix techniques et à la conception des modèles de données. Agilité Participer aux estimations (Poker Planning). Mettre à jour l’avancement des tâches pour garantir la vélocité de l’équipe. Développement & Delivery Rédiger les spécifications techniques. Développer en Java/Spring Boot et Angular . Corriger les anomalies et faire évoluer les fonctionnalités existantes. Écrire les tests unitaires et participer aux revues de code. Préparer les livraisons et accompagner l’exploitation. Traiter les anomalies de recette (VABF). Participer au support technique en production.
Offre d'emploi
Chargé de projet F/H
COEXYA
Publiée le
40k-45k €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE Nous sommes à la recherche d'un Chargé de Projet F/H pour rejoindre notre équipe au sein du pôle Smart Data chez Coexya. Vous rejoindrez une communauté d'environ 25 personnes au sein de ce pôle, répartie entre les sites de Lyon et Rennes.En travaillant au sein de cette équipe pluridisciplinaire, vous contribuerez activement à façonner l'avenir de la gestion intelligente des données dans des contextes en constante évolution.Forte de 15 ans d'engagement, votre future équipe s'est positionnée en tant qu'experte dans la valorisation de l'information non structurée, exploitant des technologies innovantes telles que les moteurs de recherche, le Traitement du Langage Naturel, le Machine Learning et l'Intelligence Artificielle bénéficiant largement des avancées actuelles des Large Language Models. CE QUE L'ON VOUS PROPOSE - Participer aux phases d'avant-vente : répondre aux appels d'offres, réaliser les chiffrages et contribuer au développement de la relation commerciale. - Comprendre le contexte fonctionnel et technique du projet : saisir les enjeux spécifiques des clients pour proposer des solutions adaptées. - Accompagner l'équipe projet : organiser et fédérer l'équipe pour garantir la cohésion et l'efficacité. - Piloter le déroulement d'un projet : contrôler l'avancement des équipes, assurer le respect des engagements contractuels (délais, budget, qualité). - Assurer la relation client : participer aux négociations contractuelles et financières, veiller à la satisfaction du client. Des déplacements ponctuels à Paris sont à prévoir (1 fois par mois)
Offre premium
Offre d'emploi
Network Team Lead Operations
KOLABS Group
Publiée le
Aruba
Cisco
Cisco Meraki
3 ans
60k-70k €
100 €
Paris, France
Nous recherchons pour le compte de notre client - acteur du secteur du luxe - un responsable d’équipe réseau en afin de gérer la criticité et la complexité croissantes des services de télécommunications et des infrastructures partagées. La mission s’inscrit au sein de la DSI Holding et est rattachée au responsable IT Operations. Elle couvre l’ensemble des réseaux LAN, WAN, Internet ainsi que la sécurité opérationnelle des sites de la Holding et des entités rattachées. Le poste inclut également le support réseau des applications diffusées auprès des différentes entités du groupe. Le poste est à pourvoir exclusivement en CDI au sein de notre ESN. 🎯 Principales missions : - Superviser les activités RUN (incidents, problèmes, changements, configurations) - Manager une équipe réseau (2 à 4 experts) et piloter les priorités - Assurer la coordination avec les équipes Architecture, infogérants et partenaires - Piloter les projets réseau (déploiement, migration, coordination technique) - Garantir la qualité de service et l’expérience utilisateur - Mettre en place et améliorer les processus ITIL (incident, change, problem) - Contribuer aux choix techniques et à l’évolution des architectures réseau - Assurer la gestion des risques, des capacités et des configurations 🌐 Environnement technique : LAN / WAN / WIFI / 5G / Internet Sécurité réseau (Firewall, IPS, Proxy…)
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Développeur confirmé fullstack C# ASP.NET F/H (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
ASP
Saint-André-de-Cubzac, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant AMOA MES Apriso (H/F)
Freelance.com
Publiée le
3DEXPERIENCE (3DX)
DELMIA Apriso
MES (Manufacturing Execution System)
1 an
690-720 €
Île-de-France, France
Dans le cadre d’un programme de transformation digitale industrielle, nous recherchons un Consultant AMOA MES Apriso pour accompagner la mise en place d’une solution MES au cœur des opérations de production. Vous interviendrez au sein d’un environnement complexe, en interaction avec les équipes métiers, IT, PLM et un intégrateur, sur différentes phases projet (cadrage, conception, préparation et déploiement). Vos missionsRecueil et formalisation des besoins Animer des ateliers avec les équipes métiers (production, qualité, supply…) Recueillir, analyser et formaliser les besoins fonctionnels Rédiger les exigences dans les outils projet (type Azure DevOps) Accompagnement des métiers Assister les utilisateurs dans la compréhension et l’adoption du MES Apriso Proposer des solutions en privilégiant les fonctionnalités standard (OOTB) Participer aux démonstrations et recueillir les retours utilisateurs Contribution aux ateliers projet Participer aux ateliers fonctionnels avec les équipes IT et l’intégrateur Garantir la cohérence des choix fonctionnels avec l’architecture globale Analyse fonctionnelle Vérifier la couverture des besoins métier Challenger les solutions proposées par l’intégrateur Assurer la non-régression entre l’existant et les nouvelles fonctionnalités Tests et qualité Rédiger et exécuter les scénarios de test (HP ALM ou équivalent) Identifier, qualifier et suivre les anomalies Participer aux phases de validation utilisateur (UAT) Suivi et reporting Contribuer au suivi du planning et des livrables Participer aux comités projet (COPIL, comités techniques) Assurer un reporting régulier sur l’avancement et les risques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6123 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois