Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 449 résultats.
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
CDI
CDD

Offre d'emploi
Ingénieur Systèmes / Virtualisation / Stockage N3

LOMEGARD
Publiée le
Cloud
Stockage
VMware

1 an
40k-60k €
Île-de-France, France
Vous évoluerez dans un contexte multi-client au sein de notre Centre de Services Suppor t et aurez la charge de : • Gérer les incidents et les demandes de niveau 3 dans le respect des engagements de service. • Garantir le Maintien en Conditions Opérationnelles et la disponibilité des Infrastructures. • Contribuer aux projets d’évolution des architectures Cloud et des mises en production client. • Effectuer les mises à jour des architectures et systèmes hébergés en alignement avec les recommandations et normes de sécurité IT. • Intervenir en support des pilotes (N1) & Analyste d’exploitation (N2) conformément au processus d’escalade. • Rédiger la documentation technique et contribuer à l’évolution continue des procédures. • Assurer la communication et le reporting de l’activité. • Respecter et contribuer à la sécurité des systèmes d’information du groupe Activium telle que définie dans le socle documentaire lié à la sécurité : • Respecter les règles de sécurité établies par l'entreprise • Participer aux sessions de sensibilisations et formations • Signaler les événements / incidents de sécurité
CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance

Mission freelance
Business Analyst Fonctionnel Sénior P2P

HAYS France
Publiée le
Finance
Oracle ERP Cloud
P2P

57 jours
400-510 €
Villeneuve-d'Ascq, Hauts-de-France
Notre client, groupe international du secteur retail, recherche un, recherche un Business Analyst Fonctionnel Sénior P2P afin d’accompagner un programme stratégique de standardisation et de déploiement Oracle ERP Cloud dans un contexte multi‑pays. Missions principales Suivre les projets de build P2P et s’assurer qu’ils atteignent les objectifs attendus (automatisation, provisions, respect du planning). Prendre en charge certains builds P2P et coordonner les équipes associées. Contribuer à la définition et à la formalisation des processus métier cibles. Participer aux gap analysis des prochains pays et accompagner les équipes locales dans les arbitrages. Collecter les besoins métiers et vérifier leur bonne prise en compte dans la solution Oracle ERP Cloud, en contribuant à la documentation fonctionnelle. Préparer et exécuter les tests fonctionnels. Assurer le rôle de référent fonctionnel P2P, animer les ateliers et accompagner les utilisateurs dans le changement
Freelance

Mission freelance
Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F)

PREREQUIS
Publiée le
SAP

1 an
Paris, France
Nous recherchons pour l'un de nos clients un Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F) Vos missions seront : Dans le cadre de son programme de transformation ERP Groupe, le client déploie un Core Model SAP S/4HANA Cloud Public visant à harmoniser ses processus et ses données à l’échelle internationale. Le groupe, en forte croissance par acquisitions, opère aujourd’hui avec plusieurs ERP hétérogènes, qui doivent être migrés vers un modèle unifié. Le programme est mené avec un intégrateur (demarrage du projet en Sept / Phase Realize en cours). Le poste est positionné côté client, avec un rôle clé sur la structuration et la gouvernance des données produit. Objectif du poste Prendre la responsabilité fonctionnelle et transverse de la Master Data Produit, afin de : Structurer et fiabiliser le modèle de données produit Garantir la qualité et la cohérence des données dans SAP Piloter le cycle de vie des produits dans le système Assurer la bonne intégration avec les outils amont (notamment PIM) Faire le lien entre les équipes métiers, data et techniques Responsabilités 1. Gouvernance de la Master Data Produit Définir et maintenir le modèle de données produit (data model) Structurer les référentiels (articles, variantes, attributs, hiérarchies…) Mettre en place les règles de gestion et de qualité des données Assurer la cohérence entre les différents systèmes 2. Gestion du cycle de vie produit Piloter le cycle de vie produit dans SAP (création, modification, obsolescence) Définir les workflows de gestion des données Assurer la traçabilité et la conformité des données produit 3. Intégration avec le PIM et les systèmes amont Gérer les flux entre le PIM (Product Information Management) et SAP Assurer la bonne transmission et transformation des données produit Garantir la synchronisation entre systèmes 4. Migration des données & outils SAP Participer aux activités de migration des données produit Utiliser et piloter les outils SAP : - Migration Cockpit - Outils d’intégration (CPI / SCPI + Boomi) - Contribuer aux phases de data cleansing et mapping 5. Collaboration avec l’intégrateur Challenger les propositions de l’intégrateur sur la data produit Traduire les besoins métiers en spécifications fonctionnelles Participer aux ateliers de conception (Build) Suivre les développements et intégrations 6. Coordination transverse Travailler avec les équipes : Métiers (marketing, supply, finance) IT / Data Équipes locales (international) Accompagner la montée en maturité sur la gestion des données
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
CDI

Offre d'emploi
Expert Microsoft

AVA6
Publiée le

40k-55k €
Limonest, Auvergne-Rhône-Alpes
Ton défi en tant qu'Expert Microsoft sera de répondre aux missions suivantes : Microsoft 365 & messagerie - Déploiement, migration et administration de tenants Microsoft 365 (Exchange Online, Teams, SharePoint, OneDrive) - Gestion des politiques de sécurité de messagerie (SPF, DKIM, DMARC, connecteurs de transport) - Accompagnement fonctionnel et technique des utilisateurs clés Azure & infrastructure cloud - Architecture et déploiement de ressources Azure (réseaux, VMs, stockage, Firewall, NSG) - Analyse de coûts et optimisation des abonnements Azure (Cost Management, KQL) - Intégration hybride : Active Directory, Entra ID Connect, SSO Sécurité Microsoft (M365 Defender / Entra / Purview) - Mise en oeuvre de politiques Conditional Access, MFA, Privileged Identity Management - Déploiement et supervision des solutions Microsoft Defender (Endpoint, for Office 365) - Participation aux travaux PSSI et accompagnement à la conformité (NIS2) Endpoint Management - Déploiement et gestion Intune (MDM/MAM), politiques de configuration, autopilot - Gestion parc Windows, macOS intégré en environnement Microsoft - Scripts d'automatisation (PowerShell, Graph API) Workload on-premises - Migration Active Directory, migration ADMT (outillage Quest) - Compétences SQL appréciées : déploiement, conseil & audit (hors dév) - Microsoft MECM Relation client & conseil - Déplacements chez les clients (zone ARA principalement, occasionnellement en nationale) - Transfert de compétences et formation des équipes IT clientes - Possibilité d'évoluer sur quelques missions d'avant-vente
Freelance

Mission freelance
Développeur AEM Cloud (H/F)

SMARTPOINT
Publiée le
Adobe Experience Manager (AEM)

36 mois
100-420 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre de l’évolution d’une plateforme digitale basée sur Adobe Experience Manager (AEM) et Adobe Digital Asset Management (DAM) , vous interviendrez au sein d’une feature team Agile . La plateforme est utilisée par différents types d’utilisateurs (équipes métiers, équipes régionales, utilisateurs terrain) et nécessite des évolutions régulières ainsi qu’un haut niveau de performance et de disponibilité. Missions principales : Piloter le développement et les évolutions de sites web sur la plateforme AEM Cloud Concevoir et développer des composants AEM (HTL, Sling Models) et services back-end Participer à l’amélioration continue des applications existantes en production Intégrer AEM avec d’autres systèmes via des API REST Contribuer aux choix d’architecture technique et aux bonnes pratiques de développement Optimiser les performances et garantir la scalabilité des applications Assurer la qualité, la sécurité et la conformité des développements Participer aux rituels Agile (daily, sprint planning, review…) Rédiger la documentation technique Compétences techniques requises : Adobe Experience Manager (AEM) Cloud Développement Java / JEE Frameworks AEM : Sling, OSGi, JCR Développement de composants AEM (HTL / Sightly) Intégration via API REST / Webservices Outils de build et CI/CD (Maven, Jenkins, Git…) Bonne connaissance des architectures web et CMS Compétences appréciées : Expérience avec Adobe DAM Connaissance des environnements Cloud (AWS, Azure…) Front-end : HTML, CSS, JavaScript (idéalement avec frameworks modernes) Expérience en performance tuning AEM Sécurité des applications web
Freelance

Mission freelance
Ingénieur devOps cloud (H/F)

LeHibou
Publiée le
AWS Cloud
DevOps
Kubernetes

6 mois
400-550 €
Montpellier, Occitanie
Notre client dans le secteur Edition recherche un/une Ingénieur DevOps H/F Description de la mission: Notre client, éditeur de logiciel, mène un chantier stratégique de rapatriement de l’ensemble de ses infrastructures Cloud public (AWS / Azure / GCP) vers ses propres Data Centers . L’objectif : Reprendre la maîtrise complète des infrastructures Migrer les environnements cloud vers un modèle hybride / privé Structurer une roadmap de transformation pour les filiales (les plus importantes en priorité) Il s’agit d’un programme de transformation d’envergure, avec plusieurs chantiers structurants déjà lancés.
Freelance

Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé/sa

WorldWide People
Publiée le
Business Analyst

6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Freelance

Mission freelance
EXPERT CYBERSECURITE

SKILL EXPERT
Publiée le
CI/CD
Cloud
Gitlab

1 an
500 €
Guyancourt, Île-de-France
Description Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Compétences obligatoires Outils de protection des applications cloud natives (EXPERT) AWS (EXPERT) GCP (EXPERT)
Freelance
CDI

Offre d'emploi
SOC Expert (Incident Response / Detection Engineering / SOAR)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Bash

12 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son dispositif de cybersécurité, un acteur majeur du secteur financier recherche un SOC Expert afin de renforcer les capacités de détection, d’investigation et d’automatisation de son Security Operations Center. L’objectif est d’améliorer la posture de sécurité globale, réduire les délais de détection et de remédiation (MTTD / MTTR), diminuer les faux positifs et renforcer la couverture des menaces. La mission s’inscrit dans un environnement international avec des infrastructures hybrides (on-premise et cloud). Objectifs de la mission Le consultant interviendra sur quatre axes principaux : Incident Response & Case Management Gestion complète des incidents de sécurité (analyse, qualification, remédiation) Coordination des actions de containment, eradication et recovery Documentation rigoureuse dans l’outil de gestion des incidents Traitement des demandes sécurité remontées par les utilisateurs Amélioration continue des playbooks d’intervention SOC Tooling & Platform Operations Administration des outils SOC : SIEM SOAR Outils de vulnérabilité / compliance Mise à jour des plateformes Tests de performance et health checks Déploiement des évolutions de configuration Detection Engineering Intégration de nouvelles sources de logs dans le SIEM Création et tuning de règles de détection avancées Réduction des faux positifs Mise en place de dashboards de suivi Mapping des détections vers le framework MITRE ATT&CK Automatisation (SOAR) Conception de playbooks dynamiques Automatisation des réponses : Isolation endpoint Blocage IP Désactivation comptes Scans post-incident Intégration cross-tools
Freelance

Mission freelance
Ingenieur Data RH

Comet
Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Freelance

Mission freelance
ADMINISTRATEUR SYSTÈMES LINUX & EXPERT ITOP

CESI-CONSULTING
Publiée le
Administration linux
Administration système
Cloud

6 mois
La Défense, Île-de-France
Au sein d'une équipe de 10 ingénieurs et sous la responsabilité du manager RUN, la mission consiste à assurer l'administration et l'évolution des différentes architectures existantes (serveurs, stockage, virtualisation, industrialisation) afin de garantir un haut niveau de disponibilité de la production. Le poste est partagé entre l'administration et l'expertise de la solution ITOP (ITSM) et l'exploitation/production des environnements Linux et cloud. Tâches à réaliser : Administration et expertise de la solution ITOP (Designer). Évolution et optimisation de la plateforme ITOP. Développement de modules et personnalisations ITOP. Formation et support aux équipes sur l'utilisation d'ITOP Intégration d'ITOP avec les autres outils du SI. Gestion des workflows et processus ITIL dans ITOP. Administration des serveurs Linux RedHat et des environnements OpenShift. Administration des environnements cloud. Prise en charge et gestion des incidents de niveau 2 et 3. Analyse de données et de logs. Analyse et debug d'incidents complexes. Développement d'outils pour automatiser certaines tâches (déploiement, administration, ticketing, rapports de statistiques et d'incidents). Rédaction de procédures (métier, utilisation d'outils, procédures de niveau 1, 2 et 3). Mise en place de surveillances système et monitoring. Rédaction des consignes liées à la production. Suivi des projets et reporting auprès du Manager. Référent technique sur ITOP et les technologies Linux/OpenShift. Participation à l'amélioration continue des processus d'exploitation. Animation de webinars et sessions de partage de connaissances Mentorat des membres juniors de l'équipe.
Freelance

Mission freelance
Business Analyste UNICA

BI SOLUTIONS
Publiée le
Cloud
CRM

2 ans
380-450 €
Île-de-France, France
Business Analyste Cloud UNICA 450 e par j Vous contribuez à l'activité de business analyse pour répondre aux enjeux de l’initiative Accélération Marketing (Recueil du besoin, Analyse de l’existant, Design fonctionnel, Assurer la faisabilité technique des demandes en tenant compte des contraintes du SI, Analyse des données, Découpage des besoins métier en user stories, Définition du plan de test, Exécution de la recette, Déploiement) • Vous participez activement aux rituels de sprint (Daily, Planning, Murissement, Raffinement/Grooming, Review, Rétrospective) pour favoriser la collaboration et l’amélioration continue de l’organisation d’équipe et des processus agiles. • Vous garantissez la maintenance de la suite logiciel Unica : Unica obligatoire / Unica est natif du cloud. Les déploiements sont automatiquement publiés et publiés avec allocation d'infrastructure et participation informatique 450 e par j
4449 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous