Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 510 résultats.
Freelance
CDI
CDD

Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)

SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Freelance

Mission freelance
Senior Data Ops Engineer

CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks

1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Freelance

Mission freelance
Architecte Réseau et Sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Architecte Réseau et sécurité Datacenter. Le client souhaite renforcer son équipe par un architecte réseau et sécurité Datacenter, afin de l'assister dans la conception, mise en oeuvre et industrialisation réseau au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique sur les technologies réseau & sécurité Les compétences techniques attendues sont les suivantes : - Expertise réseaux LAN : Cisco Fabric Path/VxLAN, - Expérience Système : Redhat linux 8, Windwos 2019 - Expériences en études et déploiement de réseaux Telecom Les compétences fonctionnelles attendues sont les suivantes : - Conception des architectures et expertise - Rédaction/ Enrichissement de base de connaissances - Reporting de l'activité projet au management
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Cadrage risques & data (BCBS 239)

Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet

4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
CDI

Offre d'emploi
Ingénieur systèmes linux H/F

VIVERIS
Publiée le

40k-50k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans un contexte d'innovation autour de l'intelligence artificielle et du calcul intensif, vous intervenez sur une infrastructure IT hybride combinant systèmes d'information classiques et plateformes HPC (High Performance Computing). Au sein d'une équipe à taille humaine, vous participez à l'exploitation, au maintien en conditions opérationnelles et à l'évolution d'environnements techniques complexes, intégrant notamment des clusters GPU. Vous évoluez dans un environnement exigeant, couvrant des périmètres variés tels que les systèmes Linux, le stockage, la virtualisation, le réseau et l'automatisation. Responsabilités : - Assurer l'exploitation, la performance et la sécurité des infrastructures (serveurs, HPC, stockage, virtualisation), tout en contribuant à leur évolution ; - Participer à la supervision (monitoring, gestion des incidents) et à l'automatisation des opérations afin d'améliorer la fiabilité des systèmes ; - Collaborer avec l'équipe et apporter un support technique avancé aux utilisateurs internes.
Freelance

Mission freelance
Tech Lead Data & Viz - Oxygen

emagine Consulting SARL
Publiée le
DBT
Microsoft Power BI
Snowflake

3 ans
Île-de-France, France
Contexte de la mission Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post-mortems), tout en mentorant l’équipe. ❖ Tech Lead Data & Viz pour l'équipe DAAS ❖ Expertise Snowflake/Azure Data Factory ❖ Aide au cadrage technique sur les initiatives et projets du périmètres. ❖ Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc ❖ Faire monter en compétences une ressource France et une ressource Indec sur la partie Report Builder Objectifs et livrables Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres).
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Expert / Lead tech IA & Data

CAT-AMANIA
Publiée le
Agent IA
Azure Data Factory
VBA

3 ans
Lyon, Auvergne-Rhône-Alpes
- S’approprier l’écosystème CDOC, comprendre les risques et les enjeux liés à la refonte de CDOC - Comprendre la trajectoire cible de CDOC (exposition applicative IA, APIs, découplage) - Recenser et qualifier les cas d’usage IA autour des documents CDOC en collaboration avec les parties prenantes - Identifier et comprendre les mises en œuvre existant de l’IA - Travailler dans le respect des process et méthode de travail de CATS (performance, coût et qualité IA, sécurité et gouvernance) - Travailler avec les architectes CATS et CAGIP pour définir l’architecture cible - Animer les ateliers de cadrage techniques IA - Documenter l’ensemble des choix et arbitrages techniques Document de cadrage de l'architecture cible, définissant les choix techniques (chunking, embedding, vectorisation), la gouvernance, la sécurité et le cycle de vie documentaire, afin de garantir une solution cohérente, maîtrisée et industrialisable, prête à être mise en œuvre. sécurisé et partagé permettant d’exposer les documents CDOC aux usages d’Intelligence Artificielle.
Freelance

Mission freelance
INGENIEUR NETDEVOPS / AUTOMATISATION RESEAU - H/F - 93 + remote

Mindquest
Publiée le
Ansible
Docker
Linux

1 an
500-550 €
Saint-Denis, Île-de-France
Mon client recherche un Ingénieur NetDevOps / automatisation réseau pour une mission freelance à Saint-Denis (93). 1. Contexte Dans un environnement NetDevOps , la mission vise à renforcer l’automatisation et l’industrialisation des infrastructures réseau. L’objectif est d’améliorer l’efficacité opérationnelle via des outils d’automatisation, de monitoring et de gestion d’inventaire, dans une logique d’amélioration continue et de standardisation des pratiques. 2. Mission Le/la consultant(e) intervient sur l’automatisation et l’exploitation des infrastructures réseau : Développement de playbooks Ansible et gestion de l’orchestration via AWX Développement de scripts Python pour l’automatisation et l’intégration d’API réseau Administration et optimisation d’environnements Linux Gestion de l’inventaire et IPAM avec Netbox et intégration aux outils d’automatisation Mise en place de solutions de monitoring et de logs avec Vector et Grafana Contribution à l’industrialisation des déploiements réseau et des workflows d’exploitation Déploiement et conteneurisation des outils sur AWS / EKS avec Docker
CDI

Offre d'emploi
Coordinateur - Responsable support N1 H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

36k-38k €
Lille, Hauts-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Nord - Normandie accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Ce qui vous attend : Au sein d'un grand groupe industriel et international, vous coordonnez une équipe “infrastructure et opérations de niveau 1”, en optimisant les activités de support et en assurant un haut niveau de qualité de service. Vos responsabilités : • Agir en tant que référent opérationnel, en gérant directement les activités du support de niveau 1 • Contribuer à la résolution des tickets utilisateurs : gestion des comptes, attribution des licences et traitement des incidents courants • Superviser les files de tickets, garantir le respect des SLA et la qualité globale du service rendu • Escalader les incidents et problématiques complexes vers les équipes de niveau 2 et 3, en assurant un suivi rigoureux et une communication adaptée • Collaborer avec les équipes IT internationales dans le respect des standards et processus du groupe • Assurer l'interface avec les prestataires et fournisseurs externes (hébergement, infrastructure, services associés) • Participer à la coordination des changements : planification, documentation et suivi • Contribuer à l'amélioration continue des processus IT, de la documentation et des pratiques de support Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI, avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte à Lille (59), avec 2 à 3 jours de télétravail par semaine Package rémunération & avantages : • Le salaire : rémunération annuelle brute incluant variable • Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation • Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) • Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : jul04gr9ri
Freelance

Mission freelance
Consultant data tracking & analytics

SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript

6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
CDI

Offre d'emploi
Technicien VIP (H/F)

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

30k-35k €
Meudon, Île-de-France
Ce qui vous attend : Vous rejoindrez une agence dédiée au sein d'une grand acteur de l'industrie en France. Vos responsabilités : • Accueil des sollicitations des utilisateurs • Prendre en compte les sollicitations des utilisateurs VIP dans les plus brefs délais • Assurer des permanences et/ou astreintes à la demande des utilisateurs VIP • Enregistrer les sollicitations et respecter les procédures • Identifier et analyser les besoins décrits par les utilisateurs • Conseiller les utilisateurs et s'assurer de leur satisfaction • Traitement des actions de support correspondantes • Résoudre les incidents de son domaine de compétences : diagnostic, identification, information, résolution, formulation • Solliciter rapidement les groupes de compétences adéquats si nécessaire et assurer le suivi de la résolution • Conseiller et former les utilisateurs • Alerter sa hiérarchie sur tout incident à fort impact • Suivi des incidents • Effectuer le suivi des sollicitations quel que soit le domaine technique concerné • Exploiter la base d'incidents et de Knowledge Management : relance, consolidation, analyse de tendance, création et mise à jour des fiches de Knowledge Management • Emettre des demandes d'actions préventives et de fond • Assurer des éléments de reporting auprès de votre responsable Ce que nous vous proposons : Valeurs : en plus de nos 3 fondamentaux que sont l'audace, la bonne foi et la réactivité, nous garantissons un management à l'écoute et de proximité, ainsi qu'une ambiance familiale Contrat : en CDI avec un démarrage selon vos disponibilités (nous acceptons les préavis) Localisation : prestation de client grand compte dans le 92 Package rémunération & avantages : Le salaire : rémunération annuelle brute selon profil et compétences Les basiques : mutuelle familiale et prévoyance, titres restaurant, remboursement transport en commun à 50%, avantages du CSE (culture, voyage, chèque vacances, et cadeaux), RTT (jusqu'à 12 par an), plan d'épargne, prime de participation Nos plus : forfait mobilité douce & Green (vélo/trottinette et covoiturage), prime de cooptation de 1000 € brut, e-shop de matériel informatique à des prix préférentiels (smartphone, tablette, etc.) Votre carrière : plan de carrière, dispositifs de formation techniques & fonctionnels, passage de certifications, accès illimité à Microsoft Learn La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 74lkloiucw
CDI

Offre d'emploi
Ingénieur système H/F

FED SAS
Publiée le

50k-55k €
Gonesse, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Arnouville, un Ingénieur système et support applicatif H/F dans le cadre d'un CDI. Rattaché au Responsable Support, rendre chaque milliseconde d'expérience client parfaite. Sur notre site, chaque instant compte et vous serez le héros qui garantit que tout fonctionne, vite et bien. Vos défis du quotidien : * Maintenir une plateforme stable et scalable * Décrypter et résoudre des incidents complexes sur notre architecture modulaire * Piloter l'observabilité : logs, métriques, dashboards et alerting * Optimiser les flux e-procurement (Punchout, intégrations B2B) * Industrialiser les processus : scripts, automatisation, runbook et post mortem * Faire évoluer constamment les performances du site e-commerce Vos super-pouvoirs : * Maîtrise du support Niveau 3 : analyse poussée, RCA, debugging avancé * SQL affûté : optimisation, tuning et analyse de volumétrie * Shell : automatisation et scripts d'investigation * Culture web & architecture applicative * Communication limpide avec des équipes réparties dans plusieurs pays Ce poste est pour vous si… * Vous adorez comprendre les rouages d'un système complexe * Vous aimez le run intelligent et l'amélioration continue * Vous voulez contribuer à la fiabilité d'un site e-commerce européen * ous aimez collaborer avec des devs, de la data, du réseau et du produit Langue : Anglais courant indispensable
CDI
Freelance

Offre d'emploi
Chef de projet technique réseaux et sécurité H/F

TIBCO
Publiée le

1 mois
Tremblay-en-France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Le projet NAC & Network segmentation a démarré en 2021 à la suite de plusieurs audits de sécurité appuyant la nécessité de segmenter le réseau AFKL afin de se prémunir des mouvements latéraux et ainsi réduire la surface d’attaque. Il s’agit d’un projet groupe AFKL prenant en compte plusieurs scopes des réseaux de collectes : * Réseau LAN Campus France * Réseau LAN Campus Amsterdam * Réseau WAN - incluant les sites distants, appelés les Branch offices - à l'étranger * Les accès distants et/ou BYOD La stratégie d’Air France KLM se repose sur l’architecture Zero Trust et Least Priviledge Access. Objectifs et livrables A titre d’information, les principales activités (liste non exhaustive) à réaliser sont : * Mettre en place une gouvernance de suivi de projet * Mettre en place un reporting régulier : vers la product team du projet ainsi qu’aux managers et directeurs des services/départements concernés * Mettre en place des comités de pilotage * Etablir, mettre à jour le planning du projet et s’assurer de la cohérence des jalons * Suivi de l’avancement du projet et du budget associé * Gérer les risques et aléas de façon proactive. Alerter en cas de dérive et prendre les mesures nécessaires * Interactions avec les différents acteurs internes : 1. Equipes connectivité France et Amsterdam 1. Equipes de sécurité au sein du département des Télécoms et dans d’autres départements 1. Architectes techniques et de domaines 1. CISO AFKL (Chief Information Security Office) 1. Interactions avec les acteurs externes à savoir les fournisseurs de services LAN managé * Prioriser les jalons et les livrables ainsi qu’anticiper les demandes de contributions auprès des équipes concernés (Dans le cadre d’une organisation Agile) * Documenter tout process ou information technique liée au projet en s’appuyant sur les architectes et experts
5510 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous