L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 178 résultats.
Offre d'emploi
CONSULTANT DATA COLLIBRA (H/F)
WE +
Publiée le
Collibra
SQL
9 mois
Roissy-en-France, Île-de-France
Consultant Data -Technical Lineage COLLIBRA - Rôle transverse Gouvernance DSI / Direction des Risques Application de la norme BCBS 239 imposée par la Banque Centrale Européenne par la création du Technical lineage des données dans l’outil COLLIBRA + Suivi des contrôles de qualité de données. Tâches principales : Recensement et Cartographie des applications à intégrer dans COLLIBRA Préparation et intégration des Data dans l’outil COLLIBRA, conformément au planning défini (1 lot de 1 à 3 applications / mois jusqu’en Novembre Documenter l’utilisation et la maintenance du Technical lineage Mise en place de Workflow dans COLLIBRA
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Offre d'emploi
Data Scientist
VISIAN
Publiée le
AWS Cloud
Deep Learning
FastAPI
1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe du client travaille sur le développement des algorithmes de détection d'anomalie sur des pièces industrielles. L'équipe est composée d'une dizaine de personnes (Data scientist, deep learning ingénieur, ML engénieur) et travaille sur une dizaine de projet par an pour développer des solutions d'aide au contrôle industriel. Les données traitées sont des images sous des formes variées (ultrasons, rayons X, tomographie, images visibles, vidéo, etc...) Pour produire les détecteurs (ou algorithme), l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. une stack d'outils spécifiques à l'équipe contrôle non destructif, développée par l'équipe CND elle-même. Pour faire face à une augmentation de la charge, nous avons besoin de renforcer l'équipe pour contribuer à plusieurs projets CND. Soft skills Votre esprit est rigoureux, créatif et méticuleux. Vous avez un bon esprit critique, ainsi que de bonnes capacités d'analyse des résultats et de prise de recul. Vous avez une bonne capacité à travailler en équipe, et de bonnes compétences en communication. Vous êtes pragmatique, et orienté résultat.
Mission freelance
Data Architect (Secteur Luxe)
Nicholson SAS
Publiée le
Azure DevOps
Git
Github
8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Scrum
Marseille, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Coordinateur Système/réseau N3 - CDI H/F
GROUPE ARTEMYS
Publiée le
Citrix
75010, Paris, Île-de-France
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nous recherchons actuellement pour l’un de nos clients grand compte situé en région parisienne Sud (92) Dans le cadre d’un contrat d’infogérance, et sous la responsabilité du Service Delivery Manager, vous intervenez comme coordinateur sur les périmètres Systèmes & Réseaux. Vous êtes à la fois : un pilier technique N3 un chef d’orchestre opérationnel un point d’appui pour les équipes et le client Votre mission (si vous l’acceptez) : Coordination & pilotage opérationnel Coordonner et prioriser l’activité des équipes techniques (systèmes, réseaux, support) Gérer les plannings afin d’assurer une activité 24/7 (avec astreintes) Être garant du respect des engagements de service (SLA) Organiser et animer les comités techniques (COTECH) et comités de pilotage (COPIL) Assurer le reporting opérationnel auprès du client et en interne Participer à la mise en place et à l’amélioration des processus RUN / MCO – Niveaux 2 & 3 Assurer le MCO/MCS des infrastructures systèmes, virtualisation et réseau Prendre en charge les incidents complexes N3 Contribuer à la gestion des problèmes et au plan d’amélioration continue Piloter les opérations de maintenance cadrage & préparation Identification et gestion des risques Expertise technique & support Intervenir en support technique N3 auprès des équipes Être force de proposition pour améliorer la résilience, la performance et la sécurité des infrastructures Contribuer aux projets BUILD en parallèle du RUN L’environnement technique : Un environnement riche, hybride et multi-sites : Systèmes, virtualisation & cloud Hyperconvergence : HPE Simplivity, Dell VxRail Virtualisation : VMware vSphere, Hyper-V Citrix : Citrix Cloud, DaaS, WEM Cloud : Microsoft Azure, Exchange Online, Azure ADDS Stockage : HPE Nimble, Huawei OceanStor Sauvegarde : Veeam Backup & Replication Supervision : WhatsUp Gold Load Balancing : Barracuda ADC Sécurité & IAM Wallix Bastion & Access Manager PKI : Sectigo, AD CS Réseau Infrastructures Cisco (Nexus 9000, UCS, ACI) Firewalls : Palo Alto, Fortinet, Stormshield Wi-Fi : Ruckus VPN, routage, segmentation réseau, sécurisation des flux Vous, notre perle rare : 8 ans d’expérience minimum en infrastructures complexes . Une première expérience de coordination ou de management technique (pilotage d’équipe, animation de réunions, suivi opérationnel). Une expertise confirmée en VMware, Citrix, stockage SAN/NAS et compétences solides sur les environnements réseau Cisco, firewalls, VPN et ACI. Capacité à gérer simultanément du RUN (incidents N3) et du BUILD (projets techniques) . Des qualités humaines fortes : rigueur, adaptabilité, sens de la communication. Anglais conversationnel apprécié. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 58 000 - 62 000 € (Selon votre expertise) Une prime annuelle de mission , versée en reconnaissance de votre rôle clé dans la coordination technique des équipes et la bonne conduite opérationnelle des projets. Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Offre d'emploi
Administrateur Réseau OT (H/F)
SPIE ICS
Publiée le
CCNA
Cisco
Cybersécurité
12 mois
40k-45k €
400-450 €
Alès, Occitanie
Nous recherchons pour notre client situé à Alès (30) un Administrateur Réseau OT expérimenté pour renforcer notre équipe informatique/OT. Vous interviendrez en complément de notre administrateur réseau actuel afin d’assurer la gestion, la maintenance et la sécurisation de notre réseau industriel. Missions principales Assurer le maintien en conditions opérationnelles du réseau OT. Administrer un parc d’environ 100 commutateurs industriels (SIEMENS, Hirschmann, Dell, Netgear). Superviser la configuration, le monitoring et le dépannage des équipements réseau. Identifier et suivre l’obsolescence des matériels réseau. Proposer et mettre en œuvre des plans de remplacement des équipements obsolètes. Participer à l’installation, la configuration et la mise en service des projets firewall. Contribuer à l’amélioration continue de la sécurité du réseau OT.
Offre d'emploi
Data Analyst - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : CDI Salaire : 37k€ à 40k€ en fonction du niveau d'expérience Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Engineer – GCP (H/F)
CELAD
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, dans le secteur bancaire. L’enjeu : structurer et industrialiser l’écosystème Data & ML sur Google Cloud Platform. Vous intervenez à la fois sur l’architecture, le build, le run et la structuration des bonnes pratiques. Industrialiser les pipelines data sur l’écosystème GCP Gérer les montées de version des services managés Garantir performance, capacité et fiabilité Développer des pipelines en Python Exploiter et optimiser BigQuery Mettre en place des pratiques CI/CD adaptées aux projets data Structurer l’industrialisation des modèles de Data Science Gestion des IAM, droits d’accès et conformité Sécurisation des environnements Encadrement des accès aux données de production anonymisées Suivi des incidents Amélioration continue des livrables Gestion des évolutions techniques avec les éditeurs
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Offre d'emploi
Architecte systèmes et réseaux Linux H/F
ITEA
Publiée le
Ansible
Bash
Linux
Schiltigheim, Grand Est
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Architecte systèmes et réseaux Linux H/F et vous présentons les points clés du poste : Poste en CDI Basé à Schiltigheim Secteur des assurances Les conditions : Fourchette salariale : selon le profil et les expériences Mode de travail : hybride Titres restaurant Primes (intéressement, vacances, cooptation) CE Les missions : Concevoir et mettre en œuvre l'architecture Linux/Redhat et les solutions associées Assurer en équipe le MCO niveau 2/3 sur l'ensemble du périmètre de l'équipe Automatiser les déploiements et l'exploitation des systèmes Participer aux analyses d'impacts et aux choix technologiques Répondre aux remédiations formalisées par les équipes de sécurité Participer à la résolution des incidents complexes et aux améliorations continues des systèmes L'environnement technique : Automatisation : Ansible, Bash, Python Sécurité et firewalling : Palo Alto, Stormshield, autres solutions de sécurité Cloud : Azure, AWS, solutions privées
Offre d'emploi
Data Engineer Flux H/F
VIVERIS
Publiée le
35k-45k €
Lille, Hauts-de-France
Contexte de la mission : Viveris pilote les chantiers de transformation métier et IT qui contribuent à la performance des entreprises bancaires. Dans ce cadre, nous recherchons notre Data Engineer qui contribuera à un programme important d'évolution de la plateforme Data. Vos missions et responsabilités : - Analyser les besoins métiers et les traduire en solutions BI pertinentes et durables ; - Modéliser les données en cohérence avec les objectifs fonctionnels et les bonnes pratiques décisionnelles ; - Créer et maintenir les flux de données via des outils ETL, en assurant leur qualité, robustesse et performance ; - Participer à la recette et au suivi de production des chaînes décisionnelles, en lien étroit avec les utilisateurs ; - Assurer un rôle transverse sur les projets décisionnels : échange avec les MOA, rédaction de spécifications fonctionnelles, accompagnement des utilisateurs.
Offre d'emploi
Product Owner Data H/F
JEMS
Publiée le
45k-50k €
Annecy, Auvergne-Rhône-Alpes
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Offre d'emploi
PMO secteur Data H/F
CELAD
Publiée le
42k-48k €
Antibes, Provence-Alpes-Côte d'Azur
Dans le cadre du développement de nos activités à Sophia Antipolis, nous recherchons un PMO confirmé (H/F) pour intervenir chez un leader mondial de l’industrie du voyage , opérant des plateformes critiques à l’échelle internationale. Vous intégrerez un environnement stratégique au sein d’un centre d’excellence dédié à la performance des projets et programmes d’envergure. Votre mission Vous pilotez l’orchestration complète de projets complexes de migration de bases de données , en garantissant la continuité d’activité, la sécurité des données et la maîtrise des risques. Vous intervenez de bout en bout : de la définition de la stratégie jusqu’à la sécurisation de la mise en production. Vos responsabilités Définition & pilotage stratégique Élaborer et conduire la stratégie globale de migration (planning, ressources, gouvernance). Assurer la coordination des équipes techniques, métiers et infrastructures. Garantir la visibilité et l’alignement des parties prenantes au niveau international. Apporter une compréhension solide des technologies bases de données cibles dans un contexte de migration. Challenger les choix techniques et sécuriser les décisions d’architecture. Superviser les phases de tests, validation et bascule. Identifier, anticiper et piloter les risques, impacts et changements. Gérer des dépendances complexes applicatives et infrastructures. Assurer la continuité de service sans interruption business. Veiller au respect des exigences de sécurité, conformité réglementaire et intégrité des données . Garantir la traçabilité et la qualité des livrables.
Mission freelance
Administrateur réseaux H/F
TIBCO
Publiée le
Réseaux
6 mois
Carquefou, Pays de la Loire
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin ? * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission Nous recherchons pour l'un de nos clients, un acteur du secteur retail un Administrateur réseau confirmé H/F. A ce titre vous serez en charge de : * MCO : Administration courante, campagnes de mise à jour, gestion de l'obsolescence. * Projets : Participation à la conception technique, automatisation/industrialisation, documentation et transferts de compétences. * Support : Support N3 pour les incidents de production et accompagnement des déploiements projets
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6178 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois