L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 478 résultats.
Mission freelance
Data Analyst orienté Data Science
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
Data science
PySpark
24 mois
400-620 €
Gradignan, Nouvelle-Aquitaine
Site de Gradignan (33) Mission longue durée – 2 ans (1 an ferme + 1 an reconductible) Charge estimée : ~210 jours/an (420 jours max) Contexte Dans le cadre du renforcement de son équipe Analyse de la Donnée, une grande organisation nationale recherche un Data Analyst orienté Data Science afin d’accompagner les métiers dans l’exploitation et la valorisation des données. Missions : Rattaché(e) à l’équipe Analyse de la Donnée, vous interviendrez sur l’ensemble de la chaîne de valeur Data, de la phase exploratoire jusqu’à la restitution des analyses via des outils de datavisualisation. Vos principales responsabilités : Analyse et croisement de données pour répondre à des cas d’usage métiers (ciblage, analyses exploratoires, data science) Développement et maintenance de produits Data réutilisables Publication et mise en forme des résultats via des outils de DataViz Respect des normes, standards et bonnes pratiques de l’équipe Accompagnement et acculturation des équipes métiers aux usages de la donnée Force de proposition dans la traduction des besoins métiers en solutions analytiques adaptées
Offre d'emploi
Chef de Projet IT Data Confirmé
Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)
Pickmeup
Publiée le
Azure
Kubernetes
Terraform
2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
Mission freelance
Administrateur Systèmes & Réseaux - Environnement Linux H/F
Les Filles et les Garçons de la Tech
Publiée le
Administration linux
Centreon
GLPI
6 mois
380-550 €
Pins-Justaret, Occitanie
Dans le cadre d'un nouveau projet chez un de nos clients, nous recherchons un Administrateur Systèmes & Réseaux H/F pour renforcer les équipes techniques. Les missions principales sont : Administration et exploitation des infrastructures systèmes et réseaux Gestion et optimisation des environnements virtualisés (Proxmox / VMware) Supervision des systèmes via Centreon Gestion des incidents et des demandes via GLPI Maintien en conditions opérationnelles des environnements Linux Participation à l’amélioration continue de l’infrastructure
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Mission freelance
Ingénieur Système Linux / Virtualisation – Build (H/F)
ALLEGIS GROUP
Publiée le
Administration réseaux
Administration système
Infrastructure
1 an
Noisy-le-Grand, Île-de-France
Dans le cadre du renforcement de son pôle Infrastructure, notre client recherche 2 Ingénieurs Système Linux / Virtualisation spécialisés dans les environnements Cloud hybrides. Vous interviendrez exclusivement sur des projets BUILD , au sein d’une équipe en charge de la conception, l’industrialisation et le déploiement de nouveaux environnements techniques . Aucun RUN n’est demandé : vous êtes rattaché(e) aux projets de création et de mise en production. En tant qu’Ingénieur Système Build, vous serez chargé(e) de : Concevoir et déployer des environnements techniques complexes (Linux / VMware / OVH). Construire des plateformes from scratch dans un contexte Cloud hybride. Participer à la configuration d’infrastructures et à la mise en production. Installer, intégrer et paramétrer des solutions middleware et observabilité. Automatiser les déploiements (CI/CD, Ansible, GitLab…). Contribuer à l’industrialisation des environnements (standardisation, packaging Helm…). Rédiger la documentation Build‑to‑Run pour le passage au RUN.
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Product Owner - Data H/F
CONSORT GROUP
Publiée le
JIRA
40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Mission freelance
Architecte data
ESENCA
Publiée le
Architecture
Collibra
Gouvernance
1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre premium
Offre d'emploi
Ingénieur Système Windows N3 (Production / Back‑office) H/F
ADONYS
Publiée le
Microsoft Entra ID
Windows Server
3 ans
50k-65k €
450-550 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'un Ingénieur Système Windows N3 (Production / Back‑office) H/F Objectif : intervenir comme dernier niveau d’escalade (N3) sur les incidents, rendre les N1/N2 autonomes via procédures et documentation pour les missions de MCO, et consacrer du temps projet à forte valeur ajoutée. Mission générale Assurer le support N3 sur l’ensemble de la plateforme Microsoft et services associés, résoudre les incidents complexes et concevoir/mettre en œuvre des solutions d’infrastructure fiables et sécurisées. Produire et maintenir la documentation, les procédures d’exploitation et schémas d’architecture pour permettre l’autonomie des équipes N1/N2. Participer aux projets d’évolution et d’architecture (migration, sécurisation, mise à l’échelle). Responsabilités principales Support N3 et escalade : prise en charge des incidents critiques non résolus par N1/N2, diagnostic avancé, remédiation et post‑mortem. Conception et gouvernance : proposer des architectures système Microsoft (AD/Entra, serveurs, haute disponibilité), définir les bonnes pratiques et standards internes. Sécurité des comptes et accès : définition et implémentation de politiques de délégation des rôles, PIM, MFA, accès conditionnels (Conditional Access) et autres mesures de réduction de la surface d’attaque. Gestion Active Directory : administration, gestion des rôles (DNS, DHCP, DFSR…), gestion du cycle de vie des objets (corbeille AD, tombstone, restauration), optimisation et maintenance. Intégration applicative SSO / authentification : assistance à l’intégration d’applicatifs utilisant Entra/Azure AD/ADFS ; connaissance des protocoles (SAMLv2, OAuth2, OpenID Connect) pour mettre en place des scénarios SSO. Virtualisation et intégration Citrix : exploitation / administration des composants Citrix (Director / Studio), participation au dimensionnement et à l’architecture des fermes Citrix (sizing, disponibilité, sécurité). Réseaux et résolutions : administration DNS d’entreprise (zones, enregistrements, redirecteurs), compréhension des impacts réseau sur authentification et accès applicatif. Automatisation et gestion à distance : scripts PowerShell pour automatisation d’administration, connaissance des mécanismes d’administration à distance (ex. WinRM). Documentation, procédures, transfert de compétences : rédaction de runbooks, playbooks et création de documentation pour les équipes N1/N2.
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Mission freelance
Administrateur Systèmes & Réseaux Linux (H/F)
Link Consulting
Publiée le
Ansible
Docker
Proxmox
12 mois
400-500 €
Toulouse, Occitanie
Notre client est à la recherche de son futur Administrateur Systèmes & Réseaux Linux (H/F) pour son site de Toulouse en raison d'une croissance de l'équipe IT. Vos missions : Intégré à une équipe technique à taille humaine, vous devrez : \- Administrer, configurer et durcir les serveurs Linux en environnement de production \- Gérer l'infrastructure de virtualisation sous Proxmox \- Administrer les environnements Windows Server et l'Active Directory (GPO, gestion des accès) \- Déployer et maintenir les services via Ansible et Docker \- Assurer la gestion du réseau : configuration, supervision et résolution d'incidents \- Mettre en place et administrer une solution de collecte et d'agrégation de logs (SIEM) \- Installer et configurer des serveurs physiques et virtuels \- Contribuer à la politique de sécurité du système d'information Les compétences techniques Linux (administration avancée, durcissement) Windows Server Active Directory Proxmox Docker Ansible Réseau TCP/IP (DNS, DHCP, Firewall, VPN) SIEM / agrégation de logs Scripting Bash
Mission freelance
Expert SAP - Data Migration
Montreal Associates
Publiée le
SAP
6 mois
600-700 €
Paris, France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients plusieurs profils : 🔔 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐞𝐧 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒𝑠 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑆4 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐷𝑇𝑀 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑒́ 𝑎̀ 𝑡𝑟𝑎𝑑𝑢𝑖𝑟𝑒 𝑙𝑒𝑠 𝑠𝑝𝑒́𝑐𝑖𝑓𝑖𝑐𝑖𝑡𝑒́𝑠 𝑑𝑒𝑠 𝑜𝑏𝑗𝑒𝑡𝑠 𝑒𝑛 𝑢𝑛𝑒 𝑠𝑡𝑟𝑎𝑡𝑒́𝑔𝑖𝑒 𝑒𝑡 𝑢𝑛𝑒 𝑚𝑒́𝑡ℎ𝑜𝑙𝑜𝑔𝑖𝑒 𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑒́𝑒𝑠 𝐹𝑜𝑟𝑡 𝑖𝑛𝑡𝑒́𝑟𝑒̂𝑡 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑝𝑎𝑟𝑡𝑎𝑔𝑒 𝑑𝑒𝑠 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒𝑠, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑙𝑎 𝑚𝑖𝑠𝑒 𝑒𝑛 𝑜𝑒𝑢𝑣𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐸𝑥𝑐𝑒𝑙𝑙𝑒𝑛𝑡𝑒 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒𝑠 𝑎̀ 𝑎𝑛𝑖𝑚𝑒𝑟 𝑢𝑛𝑒 𝑐𝑜𝑚𝑚𝑢𝑛𝑎𝑢𝑡𝑒́ 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐏𝐚𝐫𝐭𝐢𝐜𝐢𝐩𝐞𝐫 𝐚̀ 𝐥𝐚 𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐝𝐞 𝐥𝐚 𝐩𝐫𝐞́𝐩𝐚𝐫𝐚𝐭𝐢𝐨𝐧 𝐚̀ 𝐥'𝐞𝐱𝐞́𝐜𝐮𝐭𝐢𝐨𝐧. -Permettre aux équipes locales de mener à bien la définition de l'approche de migration jusqu'à la validation des données métier. -Piloter le calendrier d'exécutions des objets. -Assurer l'analyse de premier niveau des anomalies - Apporter un soutien aux responsables d'applications en fournissant les informations nécessaires à la propagation des données. - Définir la stratégie de nettoyage des données, les indicateurs (KPI) et le suivi - Garantir la cohérence entre les régions et soutenir l'amélioration continue - Définir et maintenir les modèles de migration, les rapports et tableaux de bord de qualité des données, la base de connaissances. - Arbitrer les écarts par rapport à la méthodologie et gérer l'impact des demandes de dérogation sur leur périmètre. - Former et animer la communauté sur le périmètre des objets. 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 3j semaine sur site 🕐 Début avril - 𝟔 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 650/700€
Offre d'emploi
Administrateur Systèmes et Réseaux
AVA6
Publiée le
35k-40k €
Saint-Apollinaire, Bourgogne-Franche-Comté
Tes missions majeures chez AVA6 : - Support & supervision : suivi des systèmes via les outils internes, résolution des incidents, maintenance préventive et curative - Performance & métrologie : paramétrage des environnements, actions de supervision et optimisation des serveurs et services - Accompagnement des mises en production : support technique aux équipes d'exploitation, suivi des procédures et du bon respect de la politique de sauvegarde et d'archivage - Contribution à l'évolution du SI : participation à la conception et à l'amélioration des infrastructures, livraison et maintien des composants d'infrastructure pour les projets (cohérence & compliance),implication dans les démarches d'industrialisation et d'automatisation Des déplacements ponctuels au sein des différents Data Centers sont à prévoir.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6478 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois