L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 036 résultats.
Offre d'emploi
Technicien d’Exploitation Poste de Travail - H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-34k €
Bruyères-le-Châtel, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Ile De France accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Le contexte client : Le Technicien d'Exploitation assure le maintien en condition opérationnelle du parc postes de travail, contribue aux opérations d'exploitation de niveau 1 sur l'infrastructure, et prend en charge le support fonctionnel de niveau 2 d'applications scientifiques ou développées en interne. Il travaille en proximité avec les équipes systèmes, réseau, développement logiciel et support applicatif. Vos responsabilités incluent : • Diagnostiquer et résoudre les incidents matériels, logiciels et applicatifs de niveau 2 et 3. • Prendre en charge les demandes d'assistance nécessitant une intervention physique ou de proximité. • Installer, configurer et mettre à jour les postes et logiciels standard ou spécifique. • Assurer le support, la maintenance et l'exploitation poste de travail. • Réaliser des interventions de niveau 1 sur l'infrastructure (supervision, redémarrage, contrôle physique, câblage simple). • Prendre en charge le support fonctionnel niveau 2 des applications scientifiques (ex. : MATLAB, SQL Tools, Visual Studio, outils d'analyse) et des logiciels métiers internes. • Analyser, reproduire, diagnostiquer et documenter les incidents applicatifs complexes. • Travailler conjointement avec les équipes de développement ou N3 pour les anomalies avancées. • Garantir la mise à jour des tickets, référentiels et de la CMDB. • Contribuer au maintien en condition opérationnelle global de l'environnement Contrat : en CDI Localisation : après 6 mois de formation dans les locaux du client à Bruyères‑le‑Châtel, la prestation aura lieu ensuite à Paris (75015). Autre : pas de télétravail possible Référence de l'offre : 57z9yghcm7
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)
Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA
1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Offre d'emploi
Senior Data Engineer (5+ ans d'exp)
WINSIDE Technology
Publiée le
Azure
Databricks
3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Offre d'emploi
Expert Google Workspace Data & IA
Management Square
Publiée le
BigQuery
Google Workspace
IA Générative
1 an
47k-55k €
480-530 €
Niort, Nouvelle-Aquitaine
Expert Senior Google Workspace, Data & IA Contexte de la mission : Dans le cadre d’un programme de transformation digitale, nous recherchons un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA . Le profil recherché est un consultant hybride à forte valeur ajoutée , capable d’administrer l’environnement collaboratif, d’analyser la donnée d’usage (BigQuery / Looker), de développer des solutions d’automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique afin de mesurer l’adoption des outils et la performance des processus métiers Data Analysis (BigQuery) Exploitation avancée des données (logs d’audit Google Workspace, données métiers) via requêtage SQL optimisé Structuration des tables et gestion des coûts de stockage et de calcul Pilotage RSE & Usages Définition et mise en place d’indicateurs de suivi sur l’infobésité et l’hyperconnexion Contribution aux démarches de Qualité de Vie au Travail (QVT) et de sobriété numérique Volet IA Générative (Gemini) & Innovation Centre d’Expertise IA Contribution à la structuration du centre d’expertise IA Rôle de référent technique et fonctionnel sur la solution Gemini Acculturation & Animation Animation d’une communauté d’ambassadeurs IA Organisation de webinars , rédaction de guides de bonnes pratiques et identification de cas d’usage à forte valeur ajoutée Intégration Métier Déploiement de solutions IA opérationnelles : assistance rédactionnelle synthèse documentaire assistants virtuels adaptés aux besoins métiers Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité Administration avancée de la console Google Workspace Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes cybersécurité Automatisation des Processus Développement d’applications métiers via AppSheet (Low-code) Développement de Google Apps Script pour automatiser les tâches manuelles et remplacer des fichiers Excel complexes Transition Office vers Google Accompagnement technique et méthodologique pour la migration des outils Microsoft (Excel / VBA) vers l’écosystème Google (Sheets / Apps Script / BigQuery) Posture AMOA / PO Assistance au Product Owner dans : la définition de la roadmap produit la rédaction de User Stories la conduite du changement
Offre d'emploi
TECHNICIEN SERVICE DESK H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
24k-24 001 €
Gennevilliers, Île-de-France
Missions principales : En tant que Technicien Service Desk vous auriez comme missions : • Répondre aux appels entrants et enregistrer avec précision les incidents et demandes dans l'outil de ticketing. • Diagnostiquer et résoudre les incidents liés aux postes de travail (matériel, logiciel, environnement Windows, messagerie, réseau). • Assurer le support utilisateurs à distance dans le respect des engagements qualitatifs et quantitatifs (SLA). • Escalader les incidents complexes vers les équipes de niveau supérieur si nécessaire. • Assurer le suivi des tickets jusqu'à leur résolution complète. • Rédiger les rapports d'activité et assurer un reporting régulier. • Garantir l'application des procédures de sécurité et de qualité en environnement client. • Travailler en collaboration avec les équipes support et techniques sur site. Référence de l'offre : n408mbvrzo
Mission freelance
Data Analyst Métier (H/F)
HOXTON PARTNERS
Publiée le
PowerBI
SQL
12 mois
Guyancourt, Île-de-France
Data Analyst Métier (H/F) Dans un contexte de transformation data au sein d’une DSI, nous recherchons un Data Analyst Métier pour accompagner les équipes métier dans la définition, la valorisation et la gouvernance de la donnée, au sein d’un environnement data mesh et on-prem . Vos missions Analyser et valoriser les données à des fins business (analyses exploratoires, KPI, recommandations). Collecter, structurer et fiabiliser des données issues de sources multiples (ERP, MES, PLM, etc.). Concevoir des produits de données (PDE / PDU / PDA) et contribuer aux pipelines data. Accompagner les métiers : compréhension des besoins, indicateurs, pédagogie data. Contribuer à la qualité et à la gouvernance des données (OpenMetaData, SLO, règles d’accès). Environnement & compétences SQL avancé, Power BI (modélisation, DAX), Dataiku, Excel. Bonne compréhension des enjeux métier et culture de la performance. Rigueur, pédagogie, excellent esprit d’analyse et de synthèse. Contexte secteur défense : exigences fortes en sécurité, traçabilité et “need-to-know”.
Offre d'emploi
Ingénieur intégration cybersécurité systèmes - Ferroviaire H/F
VIVERIS
Publiée le
45k-50k €
Massy, Île-de-France
Contexte : Dans le cadre de l'intégration et de la configuration d'une solution IT/Réseau hautement cybersécurisée au sein de systèmes de signalisation ferroviaire, nous recherchons un ingénieur expérimenté pour rejoindre une équipe projet à fort enjeu technologique. Votre mission sera d'assurer la mise en oeuvre, la sécurisation et la validation d'infrastructures critiques conformes aux exigences les plus strictes (ANSSI, OWASP, CIS). Vos Responsabilités : - Intégration de solutions IT/Réseau : Analyse des architectures, déploiement et configuration des applicatifs sur serveurs HP Gen10/11 (Ubuntu 24.04 LTS), paramétrage des réseaux IP et rédaction de la documentation technique, - Tests, Validation & Automatisation : Conception et rédaction de scénarios de tests automatisés (Python), exécution des plans de test (STD), rédaction des comptes-rendus (STR) et validation des protocoles de sécurité, - Durcissement Cyber (Hardening) : Application des règles de durcissement (référentiels CIS) sous Linux et Windows, configuration de pare-feux (PfSense, Fortigate), et gestion complète du cycle de vie des certificats (PKI, supervision).
Mission freelance
Administrateur système H/F - Dijon
LeHibou
Publiée le
Administration linux
Administration Windows
6 mois
400 €
Dijon, Bourgogne-Franche-Comté
Notre client recherche un Administrateur Système H/F Descriptif de la mission: Vous assurez le support des systèmes informatiques en veillant à leur supervision à l’aide des outils en place. Vous réalisez les actions de maintenance préventive et curative afin de garantir un taux de disponibilité optimal des matériels et logiciels. Vous effectuez les paramétrages nécessaires et mettez en œuvre des actions de métrologie et de supervision pour optimiser les performances des serveurs et des services. Vous apportez un support technique aux équipes d’exploitation lors des mises en production d’applications et veillez à la mise en œuvre de la politique de sauvegarde et d’archivage. Vous contribuez également à la construction du SI en : • participant à la conception et à l’évolution des infrastructures informatiques, • réalisant la livraison des composants d’infrastructure nécessaires aux projets et en veillant à leur cohérence dans le temps (compliance), • participant aux processus d’industrialisation et d’automatisation. Vous êtes à l’aise en anglais, tant pour la consultation de documentation que pour les échanges techniques. Des déplacements ponctuels sont à prévoir Compétences souhaitées Systèmes d’exploitation : Linux (Debian) et/ou Windows Server Virtualisation : VMware Sauvegarde : Veeam ou NetBackup Support : Supervision et contrôle de l’activité des systèmes Langue : anglais technique (niveau B2 du CECRL ou équivalent) Qualités : curiosité, sens du service client, travail en équipe, rigueur, organisation Stack Technique Conteneurisation : Docker, OpenShift Automatisation : Ansible, Jenkins, Azure DevOps Stockage : PureStorage, NetApp Supervision : Grafana, Zabbix Inventaire : GLPI Missions prévues • Mise à jour des systèmes d’exploitation Linux et Windows Server • Participation au tour de support de l’équipe • Contribution à la construction et à l’évolution des infrastructures dans le cadre des projets Compétences / Qualités indispensables: Linux,windows Server,VMware,Veeam,NetBackup
Offre d'emploi
Responsable Data & Business Intelligence
CONCRETIO SERVICES
Publiée le
Data management
Microsoft Power BI
40k-80k €
Île-de-France, France
Rattaché(e) à la DSI, vous définissez et pilotez la stratégie Data d'un groupe structuré. Vous encadrez l'équipe Business Intelligence, garantissez la performance des plateformes décisionnelles et accompagnez les métiers dans l'exploitation de la donnée comme levier de performance. Vos missions : 1- Management & Organisation Manager et animer une équipe d'analystes et d'experts BI (environ 5 à 10 collaborateurs) Organiser et prioriser les demandes, piloter la charge et assurer le respect des engagements (qualité, coûts, délais) Accompagner la montée en compétences de l'équipe et promouvoir les bonnes pratiques Data Travailler en étroite collaboration avec les autres équipes IT (AMOA, infrastructures, sécurité) et les directions métiers. 2- Pilotage de la stratégie Data Définir la feuille de route Data en lien avec la DSI et les directions métiers Contribuer la refonte du système d'information décisionnel et des outils Data Participer à la gouvernance de la donnée (qualité, sécurité, conformité) Etre force de proposition sur les évolutions technologiques et l'architecture cible du SI Data 3 - Supervision technique & opérationnelle Superviser et faire évolue les plateformes décisionnelles existantes (SAP BW, BO, Power BI, Snowflake, Talend Garantir la fiabilité, la performance et la disponibilité des flux et entrepôts de données Participer activement à la conception et à la mise en oeuvre des solutions techniques (ETL, modèles de données, reporting, dashboards) 4- Relation métiers & accompagnement Recueillir, analyser et challenger les besoins Data des différentes directions (commerciale, finance, logistique, RH) Garantir la pertinence et la qualité des livrables décisionnels (KPIs, tableaux de bord, indicateurs de pilotage 5 - Pilotage applicatif & MCO Piloter et assurer le MCO des applications du SI Groupe Réaliser les pré-études, les estimations de charge et assurer une veille technologique continue Recueillir les besoins métiers et rédiger les spécifications fonctionnelles associés Planifier et mettre en œuvre les paramétrages des solutions SAP et des logiciels connexes Piloter et/ou réaliser les développements applicatifs Assurer un rôle d'expertise fonctionnelle et technique, ainsi que le support de niveau 2 et 3 Animer et/ou participer à des projets transverses au sein de la DSI
Offre d'emploi
Intégrateur N2 des applications informatiques
KEONI CONSULTING
Publiée le
Big Data
Linux
Openshift
18 mois
20k-60k €
100-350 €
Niort, Nouvelle-Aquitaine
CONTEXTE Contexte de la mission : Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). ACTIVITES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. PROFIL Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans. Expériences requises dans les domaines : Indispensables : Unix, AIX, Linux (développement de scripts en Shell) Maitrise de l’ordonnanceur Control-M Outil de déploiement : Harvest Connaissances DATA / IA (Cloudera, Talend, Informatica, Azure Databricks) Souhaitées : Connaissance SGBD Oracle Exacc MVS/Z-OS (développement de JCLs) Connaissance SGBD DB2 Openshift Serveurs d’automatisation : Jenkins
Mission freelance
Ingénierie Méthodes & Data Analyst (Production Data & Master Data)
Mon Consultant Indépendant
Publiée le
Data analysis
6 mois
540-590 €
Paris, France
Profil recherché : Ingénierie Méthodes & Data Analyst (Production Data & Master Data) Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
ADMINISTRATEUR SYSTÈMES & RÉSEAUX (MacOS / SaaS) H/F
ADSearch
Publiée le
Administration réseaux
Administration système
Administration systèmes et réseaux
3 mois
Colombelles, Normandie
Contexte de la mission Dans le cadre du renforcement du pôle Systèmes d’Information, nous recherchons un prestataire expérimenté pour assurer la gestion opérationnelle et l’évolution de notre infrastructure interne, ainsi que l’accompagnement technique autour de notre application métier en mode SaaS. L’environnement actuel repose sur : 10 à 15 postes MacOS (MacBook Air) Suite Microsoft Office 365 + Microsoft Defender Hébergement local via serveur NAS, à faire évoluer vers une solution plus performante (cloud, hybride ou autre) Application SaaS en cours de déploiement, avec serveurs régionaux dédiés à la collecte et au traitement de données. DÉTAIL DE LA MISSIONAdministration du parc interne Activation et configuration des postes utilisateurs (MacOS). Installation, maintenance et supervision des outils Microsoft Office 365 et Defender. Gestion et supervision du serveur NAS et des sauvegardes. Suivi de la sécurité des end points (vulnérabilités, correctifs). Participation à la sensibilisation et la formation des utilisateurs sur la cybersécurité. Évolution de l’hébergement et de l’infrastructure Diagnostic de l’existant (NAS, réseau local, sauvegardes). Proposition et mise en œuvre d’une solution évolutive (Cloud / hybride). Documentation et transfert de connaissances internes. Gestion du plan de sauvegarde, restauration et sécurité. Support au déploiement de l’application SaaS Déploiement et configuration de nouveaux serveurs métiers. Administration courante : mises à jour, surveillance, sécurité, optimisation de la charge. Rédaction et maintenance de la documentation technique (procédures, supervision). Extension possible de la mission Contribution au développement backend (langage Go ) pour adaptation ou intégration avec les serveurs métiers. Mise en place d’outils d’automatisation ou de monitoring (CI/CD, scripts).
Offre d'emploi
Développeur Java Spring / Data / Greenplum / Vtom - Niort
HR DNA
Publiée le
Greenplum
Java
Spring
2 ans
40k-55k €
400-510 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail
Mission freelance
Senior Data Engineer
Signe +
Publiée le
MySQL
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6036 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois