L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 873 résultats.
Offre d'emploi
Ingénieur systèmes et réseaux H/F
VIVERIS
Publiée le
40k-55k €
Villeurbanne, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre d'un renfort de l'équipe système et d'analyse de notre client du secteur de la protection sociale, nous recherchons un Ingénieur Système et Réseau expérimenté. La mission s'inscrit dans le cadre d'un projet stratégique. Vous serez responsable du déploiement des composants du système d'information, garantissant la cohérence, la disponibilité et la sécurité des systèmes. L'équipe est composée d'un Product Owner, de plusieurs Business Analysts, de développeurs et d'un Tech Lead. Par ailleurs, le consultant travaillera en étroite collaboration avec les différentes parties prenantes. Responsabilités : Mettre en oeuvre d'outils de monitoring et de reporting ; Gérer un référentiel système, administration des infrastructures techniques ; Résoudre des incidents et validation technique des solutions ; Mettre à jour et installation des infrastructures et logiciels.
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Mission freelance
Team Leader Data engineering
Codezys
Publiée le
Confluence
JIRA
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Objet : Appel d'offres pour le poste de Team Leader Data Engineering C-Logistics Nous lançons un appel d'offres dans le cadre du recrutement d'un Team Leader Data Engineering pour notre filiale C-Logistics . Ce poste clé s’inscrit dans notre démarche d’optimisation de nos processus data et d'amélioration continue des performances de notre infrastructure logistique. Mission Sous la responsabilité du Head of Engineering Logistique , le Team Leader sera chargé de diriger l'équipe data engineering dédiée à C-Logistics. À ce titre, il jouera un rôle stratégique en tant que facilitateur et coach technique, tout en étant un acteur majeur de la performance de l’équipe. La mission s’appuie sur les principes Lean pour assurer l’efficacité des processus. Les responsabilités principales incluent : Optimiser les processus de delivery afin d’assurer une production de données performante et fiable ; Analyser et traiter les causes racines des problèmes rencontrés en production pour assurer une stabilité continue ; Foster l’autonomie et le développement des compétences de l’équipe ; Garantir la performance, la scalabilité et la fiabilité de nos solutions data, en cohérence avec la vision produit définie par le product manager. Périmètre Les activités concernent principalement : Le traitement et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics ; Le partage de données avec d’autres filiales du groupe ; Le partage de données avec nos clients B2B, afin d’assurer une transparence et une collaboration optimale. Profil recherché Ce poste requiert une forte capacité d’analyse, un leadership affirmé et une expertise technique solide en ingénierie des données. Le candidat idéal doit maîtriser les principes Lean, avoir une expérience en gestion d’équipes techniques, et être capable d’assurer la scalabilité des solutions dans un contexte multi-parties prenantes. Modalités de réponse Les prestataires souhaitant répondre à cet appel d’offres sont invités à fournir une proposition détaillée, incluant leur méthodologie, leur expérience pertinente, ainsi que leur approche pour répondre aux enjeux mentionnés ci-dessus. Nous vous remercions de votre intérêt et attendons vos propositions avant la date limite communiquée.
Offre d'emploi
Chef de projet Data MDM (industrie)
Amontech
Publiée le
BigQuery
Looker Studio
Master Data Management (MDM)
40k-45k €
Aubervilliers, Île-de-France
📌 Contexte Dans le cadre d’une mission au sein du Pôle DATA (secteur industriel) nous recherchons un/une Chef(fe) de projet Master Data pour intervenir sur la gestion et l’amélioration du référentiel d’entreprise. Vous intégrerez une équipe dédiée à la gouvernance des données , travaillant sur une solution interne et des projets d’amélioration continue de la qualité des données et des workflows métiers. 🎯 Missions En tant que Chef(fe) de projet Master Data, vous interviendrez à la fois sur la gestion du référentiel, l’amélioration de la qualité des données et la conduite de projets d’évolution. 🔧 Gestion et administration du référentiel (50%) Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents pour l’appropriation des outils et workflows Maintenir la cohérence et l’intégrité du référentiel de données ⚙️ Amélioration de la qualité des données (30%) Réaliser des analyses croisées multi-sources pour identifier anomalies et incohérences Définir et prioriser les plans d’action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives 🔧 Conduite de projets d’amélioration continue (20%) Recueillir et analyser les besoins d’évolution exprimés par le business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement)
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
22k-24k €
Valence, Auvergne-Rhône-Alpes
Au sein de l'activité Services en région Rhône-Alpes, nous accompagnons plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Missions principales : En tant que technicien Support Utilisateurs (ITINERANT) vous auriez comme missions : • Résolution des incidents techniques sur les postes de travail, téléphonie fixe/mobile, réseaux et équipements de salles de visioconférence. • Gestion et suivi des tickets d'incidents et de demandes via un outil ITSM. • Gestion des accès : création/suppression de comptes, réinitialisation de mots de passe. • Aide aux utilisateurs dans la connexion et l'utilisation des outils informatiques fournis. • Gestion du parc informatique : suivi du matériel, inventaires, gestion des stocks et récupération des postes de prêt. • Déplacements réguliers en voiture, principalement sur le site Thales Valence avec possibilité de déplacements nationaux. Référence de l'offre : cxzfem3kuu
Mission freelance
CP Data Migration SAP - MDM
Atlas Connect
Publiée le
Coupa
CRM
Data governance
12 mois
580-690 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un vaste programme de transformation finance et digitalisation, notre client renforce son dispositif autour des sujets Data Model & Data Migration sur les périmètres : Performance Opérationnelle Finance Run des applications Finance (P2P et CRM) Programme Source-to-Pay Déploiement de Sirion (France & USA) Harmonisation des outils Migration et transformation des modèles de données Intégration future dans un référentiel MDM Projet S/4HANA Environnement international avec fort enjeu de coordination. 🚀 Missions principales Le Chef de Projet Data Migration sera responsable de la coordination et du pilotage des sujets liés au modèle de données et à la migration dans un environnement multi-outils. 📌 Pilotage Data Migration Définir et piloter la stratégie de migration des données Superviser la qualité, la transformation et la cohérence des données Garantir l’alignement avec les modèles cibles Anticiper l’intégration future dans le MDM 📌 Coordination transverse Mettre autour de la table les équipes métiers, IT et intégrateurs Animer les comités projets Arbitrer et prioriser les chantiers Assurer la cohérence entre P2P, CRM, Sirion et S/4HANA 📌 Programme & Outils Contribution au programme Nexus Pilotage data sur le périmètre Source-to-Pay Harmonisation des outils finance et procurement Compréhension des enjeux autour des outils de type StoS ⚠️ Le poste n’est pas orienté technique d’implémentation : → Pas de mise en place d’interfaces → Pas de déclenchement technique d’outils → Rôle orienté pilotage, coordination, gouvernance data 🧠 Profil recherché🎓 Expérience Minimum 8 ans d’expérience en gestion de projet data / transformation Expérience confirmée en migration de données dans des environnements complexes Expérience sur des programmes internationaux fortement structurants 💻 Compétences techniques Bonne connaissance de : SAP (idéalement S/4HANA) Coupa Environnements P2P / Source-to-Pay Connaissance de Tibco : un plus Compréhension des problématiques MDM Vision data model & gouvernance 🌍 Langues Anglais obligatoire
Offre d'emploi
TECHNICIEN SUPPORT UTILISATEUR H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-24 001 €
Limours, Île-de-France
Missions principales : En tant que technicien Support Utilisateurs vous auriez comme missions : • Participer à l'installation, la mise en production et la maintenance des infrastructures et systèmes • Assurer le support utilisateurs de proximité et le traitement des incidents techniques • Intervenir sur les environnements Linux ( diagnostic, résolution d'incidents, support ) • Superviser et maintenir les systèmes et infrastructures IT afin de garantir leur disponibilité • Analyser, qualifier et traiter les incidents techniques ( matériels, systèmes, réseaux ) • Appliquer les procédures d'exploitation et de maintenance • Assurer le suivi des incidents via les outils de ticketing • Participer à la mise à jour et au maintien en conditions opérationnelles des systèmes • Effectuer des tests et contrôles de bon fonctionnement après intervention • Contribuer au reporting d'activité et à l'amélioration continue des processus Référence de l'offre : u5xrrta2rc
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Product Owner Data RH - F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Proxy PO DATA - finance / Processus Procure to Pay AND Order to cash /DATAIKU / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
490-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, un proxy-product Owner Data Objectif : Apporter son soutien à l'équipe de finance d'entreprise dans la mise en œuvre de son programme de transformation financière. Ce programme couvre l'automatisation des processus, ainsi que les processus P2P (Procure-to-Pay) et O2C (Order-to-Cash). Vous veillerez à ce que toutes les initiatives de transformation financière comportant une dimension « données » soient correctement identifiées, structurées et alignées sur les normes, les modèles et les cadres de mise en œuvre du Bureau des données du groupe. Il s'agit d'un poste transversal et hautement collaboratif, faisant le lien entre les équipes Finance, Informatique et Données, afin de garantir la mise en œuvre et l'adoption efficaces de solutions basées sur les données. Mission Principale : Agir en tant que Proxy Product Owner Data pour le programme de transformation de la finance d'entreprise, en permettant une exécution axée sur les données en s'assurant que les projets sont : • Correctement identifiés comme comportant une composante données • Sont recensés et alignés sur les priorités du Bureau des données du Groupe • Sont structurés selon les modèles, solutions et normes d'architecture du Groupe • Sont mis en œuvre efficacement avec une gouvernance et des conseils techniques appropriés Identification et gestion des projets Identifier les initiatives de transformation financière ayant un impact sur les données Évaluer la valeur métier et la faisabilité Veiller à la cohérence avec les priorités du Bureau des données du Groupe Veiller à la hiérarchisation et à l'intégration dans le backlog du bureau des données du groupe Traduire les besoins financiers en exigences techniques et en matière de données Veiller à l'alignement sur les modèles d'architecture du groupe Valider la conception de la solution et les modèles de données Expertise en processus financiers et soutien à la transformation Apporter une expertise sur les processus de finance d'entreprise Accompagner les initiatives de transformation dans les domaines suivants : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus financiers S'assurer que les solutions de données répondent aux besoins opérationnels de la fonction financière Mise en œuvre de l'automatisation des processus Soutenir la mise en œuvre des initiatives d'automatisation des processus Contribuer à l'élaboration de cas d'utilisation de l'automatisation à l'aide de Dataiku Garantir l'intégration et la qualité des données pour les flux de travail automatisés Coordination de la mise en œuvre Assurer la coordination entre les équipes financières, informatiques et le Bureau des données du groupe Suivre l'avancement du projet et lever les obstacles Veiller à ce que la mise en œuvre soit alignée sur les étapes clés de la transformation Normes, gouvernance et bonnes pratiques Veiller au respect des normes du Bureau des données du Groupe Appliquer les modèles d'architecture et les cadres de gouvernance Garantir le respect des exigences en matière de qualité et de sécurité des données Implication des parties prenantes et communication Servir de point de contact principal pour les données dans le cadre du programme de transformation financière Fournir des rapports d'avancement réguliers Soutenir la prise de décision et la coordination
Mission freelance
Data Analyst confirmé
Codezys
Publiée le
Data visualisation
PySpark
Python
12 mois
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Définition de la prestation attendue : Implementation de cas d'usage métiers via le croisement de données, tels que le ciblage, l’analyse de données ou la data science. Développement et maintenance de produits data réutilisables. Publication des résultats d'analyse à travers des visualisations de données (DATAVIZ). Respect des normes et des bonnes pratiques au sein de l'équipe. Accompagnement et sensibilisation des équipes métiers et autres parties prenantes. Objectifs et livrables : Programme data déployé sur une plateforme dédiée. Visualisations de données (DATAVIZ). Présentation PowerPoint des résultats de l'étude. Environnement technique : Plateforme : BIG DATA Hadoop (CLOUDERA). Langages : Python, PySpark, SQL. Outils de restitution : Power BI (datasets, dataflows, rapports).
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Consultant Cybersécurité Senior (H/F)
AVA2I
Publiée le
ISO 27001
ISO 27005
Pentesting
3 ans
La Défense, Île-de-France
Dans le cadre du renforcement de la gouvernance cybersécurité d’un grand groupe du secteur de l’énergie , nous recherchons un Consultant Cybersécurité Senior pour intervenir sur les sujets de gestion des risques, conformité et pilotage de la sécurité des systèmes d’information . Missions Sécurité & gestion des risques Participer à la mise en œuvre et au suivi des référentiels ISO 27001 / ISO 27002 Réaliser des analyses de risques (EBIOS, ISO 27005) Contribuer aux tests d’intrusion et audits de sécurité (Pentest) Participer à la définition et à l’amélioration de l’ architecture de sécurité Pilotage & gouvernance Piloter des projets cybersécurité Mettre en place et suivre des tableaux de bord sécurité et indicateurs de performance Contribuer à la gouvernance de la sécurité des systèmes d’information Produire des documents de synthèse, rapports et recommandations Environnement technique Normes : ISO 27001 / ISO 27002 Gestion des risques : EBIOS, ISO 27005 Sécurité des réseaux et infrastructures Outils de sécurité et de supervision
Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault
CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD
3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Offre d'emploi
Développeur Big Data Expérimenté (H/F)
CITECH
Publiée le
Cloudera
Git
Hadoop
50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6873 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois