Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Analyste SOC - Incident Manager
Métier et Fonction : Maintenance, Support et Assistance Utilisateurs, Incident Manager. Spécialité technologique : Gestion des incidents. Type de facturation : Assistance Technique (tarif journalier). Compétences et outils : Technologies et outils : Power BI, EDR, Python, Splunk, Bash, Grafana, PowerShell, Azure. Méthodes / Normes : Agile, Scrum. Langues : Anglais. Secteur d'activité : Transport de courrier. Description de la prestation : Dans le cadre d'un projet pour un client du secteur du transport, l'objectif est de renforcer les capacités de cybersécurité et d'améliorer la surveillance des événements de sécurité via un SOC moderne. La mission consiste à assurer la surveillance, la détection et la réponse aux incidents de sécurité en utilisant des technologies avancées telles que : SIEM et EDR : Splunk, Azure Sentinel, Tehtris, Trellix. Outils de visualisation : Power BI, Grafana. Méthodologie : Approche agile avec Scrum. Les responsabilités clés incluent : Piloter la gestion des incidents cybersécurité. Participer aux cellules techniques de gestion de crise. Élaborer des indicateurs de performance et évoluer l'outil de gestion des incidents. Vérifier la traçabilité et la qualité des tickets. Analyser les indicateurs et remonter les alertes d'écarts. Recueillir les rapports d’incidents et établir des rapports périodiques. Animer des réunions et proposer des actions d’amélioration continue. Coordonner l’intervention des équipes techniques lors d’incidents majeurs.
Offre d'emploi
Chef de Projet IT
Nous recherchons un Chef de Projet ou Program Manager IT pour une mission longue dans le 95 pour un démarrage dès que possible. Collecter, analyser et remonter les besoins métiers. Analyser les besoins des clients et rédiger les spécifications fonctionnelles Piloter la roadmap : suivi du planning, arbitrage, gestion des charges, Assurer la coordination entre les métiers (ADV, finance, fabrication, négoce) et les équipes techniques, Assurer la gestion budgétaire et le respect des délais des projets. Expérience confirmée dans le déploiement des ERPs et/ou CRM ( Microsoft Dynamics 365, Sage) Connaissance de ’écosystème Microsoft fortement appréciée (Power BI, Power Apps, Azure, SharePoint...) Capacité à travailler en lien avec des interlocuteurs variés. Qualités : rigueur, communication, esprit de synthèse, autonomie. Vous possédez une expérience d'au moins 5 ans en tant que Chef de Projet IT grand compte.

Mission freelance
EXPERT GO ANYWHERE H/F
Expert GoAnywhere Dans le cadre de la sécurisation et de l’automatisation des transferts de fichiers , Notre client recherche un Expert GoAnywhere MFT pour concevoir, déployer, administrer et optimiser la solution GoAnywhere MFT. Le consultant(e) jouera un rôle clé dans la conformité réglementaire (RGPD, PCI DSS, ISO…), la sécurité des échanges , et l’ efficacité des processus de transfert de données . Il/elle sera également en lien avec l’éditeur de la solution pour challenger les évolutions et les bonnes pratiques. Missions confiées Déploiement et configuration de GoAnywhere MFT dans des environnements multi-plateformes (Windows, Linux, IBM i…) Automatisation des workflows de transfert de fichiers (triggers, planification…) Sécurisation des échanges via SFTP, FTPS, HTTPS, AS2/AS3/AS4… Intégration avec les systèmes existants : bases de données, applications métiers, APIs REST/SOAP Administration et supervision via le tableau de bord web Mise en conformité avec les normes de sécurité et production de rapports d’audit Support technique et formation des équipes internes Veille technologique et recommandations sur les évolutions de la solution Profil recherché Expérience significative (3 ans minimum) sur des projets MFT avec GoAnywhere Certification GoAnywhere ou équivalent appréciée Connaissance des outils AXWAY appréciée Compétences requises Maîtrise de GoAnywhere MFT et de ses modules : Secure Forms, Secure Mail, GoDrive, Secure Folder Expertise en protocoles de transfert sécurisés Expérience en automatisation IT et scripting Compétences en sécurité informatique : chiffrement, certificats… Connaissance des environnements cloud (AWS, Azure) et bases de données (SQL Server, Oracle, PostgreSQL…) Capacité à travailler en mode projet avec des équipes pluridisciplinaires Bonnes compétences en communication et documentation technique

Offre d'emploi
Expert Dynatrace - Monaco/Grail
Objectifs et livrables 3/Livrables : Évaluer les besoins des produits et Opcos en termes d'observabilité et de surveillance. Concevoir et mettre en œuvre les solutions appropriées pour intégrer de nouveaux domaines à la plateforme Dynatrace. Contribuer à la vue de surveillance de bout en bout en fournissant des alertes et des métriques liées aux domaines couverts. 4/Expertises : Certification Dynatrace. Certification Azure et/ou AWS. Dynatrace Monaco. Javascript. Architecture. * Années d'expertise recherchées : au minimum 4 ans d'expertise avec Dynatrace. * Outils nécessaires ou expertise obligatoire : - Expertise dans la surveillance d'Azure ou d'AWS avec Dynatrace et bonne expertise du cloud. - Expertise avec les nouvelles fonctionnalités de Dynatrace telles que DQL, Workflow, Guardian, ... - Capacité à concevoir une solution incluant plusieurs composants et systèmes.

Mission freelance
Product Owner Paiement - 📍 Lille
Contexte & Objectifs : Rattaché(e) à la Team Product Paiement, vous interviendrez sur le projet PIton . Vos missions : Piloter la conception du projet en lien avec les équipes BO, PO eCard et acquisition. Suivre les phases de développement et de tests avec les squads concernées. Assurer le suivi éventuel des prestataires externes (eCard, Visa, etc.). Définir les SLA, garantir le bon déploiement en production (supervision / alerting) avec les équipes DOT. Compétences indispensables : Expertise Paiement, Xpay, Wallet. Maîtrise acquisition & émission. Conception en mode produit Agile. Compétences souhaitées : Cloud Azure. Développement informatique dans l’univers Paiement.

Offre d'emploi
Data Engineer GCP + Talend
Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :

Offre d'emploi
Ingénieur.e Support opérationnel – NICE & VERINT
Vous interviendrez en tant qu’ingénieur.e support opérationnel pour l’enregistrement vocal, en assurant l’administration, le support technique ainsi que la gestion des projets et programmes liés à l’infrastructure de capture. Votre rôle Support opérationnel & Administration des plateformes Assurer le bon fonctionnement des plateformes d'enregistrement vocal en fournissant des services opérationnels : administration, surveillance, contrôles et support technique de niveau 2 et 3 Résoudre les problèmes liés à la plateforme en collaboration avec le service informatique interne et les fournisseurs, si nécessaire. Participer aux activités de gestion des changements et aux opérations de maintenance y compris le week-end ou en dehors des heures de bureau et lors des campagnes de correction Conformité & Gestion des données Assister les équipes en charge de la conformité et des questions juridiques dans la recherche, l'extraction et la fourniture de données d’enregistrement, si nécessaire Respecter les contrôles et procédures internes, en veillant au respect des délais et des accords de niveau de service (SLA) Transmettre les problèmes critiques à la direction et/ou au contrôle permanent (ou à la conformité), selon le cas Reporting & Suivi opérationnel Produire et diffuser des rapports sur les données opérationnelles à destination de la direction Assurer le suivi des performances et de la qualité des services fournis par les plateformes d’enregistrement Collaboration & Partage des connaissances Collaborer avec les équipes globales de conservation des enregistrements dans d'autres régions afin d'assurer un partage continu des connaissances et la résolution des problèmes Assurer la liaison avec les partenaires externes et les fournisseurs pour le support et la gestion des problèmes/changements Votre profil Compétences techniques : Bonne connaissance des systèmes d'enregistrement vocal : NICE NTR/NTR-X, NICE Fusion, VERINT VFC – VERBA Maîtrise des serveurs Microsoft Windows et des outils de productivité, dont Excel (graphiques, VLOOKUP, tableaux croisés dynamiques) Notions de base en réseau : TCP/IP et UDP, ports et protocoles, adressage IP, pare-feu et règles de sécurité, outils de surveillance et de diagnostic réseau (Wireshark, traceroute, ping, etc.) Expérience de base avec les bases de données (MySQL, MSSQL), de l'administration et des opérations de recherche par requête Connaissance souhaitable des systèmes d'enregistrement eCOM (Veritas/Arctera Enterprise Vault, eDiscoveryPlatform, Discovery Accelerator et Merge1) et des technologies Dealer-board / Turret (IPC Unigy, Broker lines, hoot bridges) Notions de base sur Microsoft Azure et les outils de surveillance de l'infrastructure système Connaissance de base de la conception et du fonctionnement des plateformes de stockage : NAS, WORM, ECS, S3 Connaissance des méthodologies standard de prestation de services : ITIL, ITSM
Offre d'emploi
Chef de projet technique SI / IA
Nous recherchons pour notre client un Chef de projet Technique SI pour piloter un programme ayant pour objectif le développement et l'industrialisation d'un algorithme d'intelligence artificielle. Cet algorithme permettra à notre client d'optimiser le pilotage de son activité. Vous serez garant de l'intégration de la solution dans le SI et sur une plateforme AWS. Vos missions : Pilotage de projet de bout en bout. Animation des équipes techniques (data scientist, développeurs) en Agile Coordonner les métiers, partenaires. Suivi du planning, budget et des risques. Piloter le déploiement de la solution sur le SI et le cloud Participer à la définition des architectures data & logicielles Superviser les phases de tests techniques Vous serez l'interface technique entre toutes les parties prenantes. Vous aurez à votre charge toute la communication et le reporting de votre projet. Pré-requis Bac + 5 école d'ingénieur ou équivalent vous avez entre 5 et 8 ans d'expérience en gestion de projets SI complexes Vous avez des expériences avérée sur des projets d'intégration dans des environnements Cloud AWS , et idéalement dans le domaine de l'IA vous connaissez les méthodologies Agile (Scrum, Safe) Vous avez des compétences en architecture logicielle (API, microservices) Maitrise des outils : Jira, Confluence et Powerpoint

Mission freelance
Analyste sécurité et réseaux NSX-T Clermont-ferrand/rr
Analyste sécurité et réseaux NSX-T Clermont-ferrand Analyste sécurité et réseaux 2 jours TT. NSX-T est un prérequis Autres compétences technologiques : Service NOW, Cisco ASA, Checkpoint, Palo alto, NSX-T, VRNi, F5, Efficient IP, Python, Azure NSG, Proxy Bluecoat, API Profil ouvert à la pré-embauche après 6 mois de prestation idéalement 2 jours TT. Au sein d'une entité infrastructure/réseaux, vous interviendrez sur les tâches suivantes : Design et mise en œuvre de la politique de sécurité ( Est/West) NSX-T on prem - Design et mise en œuvre de la nouvelle version de la politique de sécurité au sein d'un Data Center de plus de 2000 VMs) - Mise en place de la clôture des firewall de tous les datacenter ( 4000 Vm environ) - Amélioration de la sécurité sur la solution NSX-T - Traitement des tickets - Assistance aux projets de sécurisation, migration etc. des équipes business - Création de scripts d'automatisation La connaissance de la solution NSX-T est un prérequis Autres compétences technologiques : Service NOW, Cisco ASA, Checkpoint, Palo alto, NSX-T, VRNi, F5, Efficient IP, Python, Azure NSG, Proxy Bluecoat, API Anglais professionnel mandatory (échanges quotidiens avec nos équipes indiennes) Présence sur site Clermont Ferrand 3j/semaine - 2j de télétravail possibles maximum Analyste sécurité et réseaux NSX-T Clermont-ferrand Profil ouvert à la pré-embauche après 6 mois de prestation idéalement 2 jours TT.

Offre d'emploi
Data Engineer Azure / Python
Le rôle consiste à piloter des projets d’intégration temps réel et de data (big data & insights) , en assurant la conception et le déploiement de pipelines de données robustes pour les data scientists et data analysts. Il implique de proposer des solutions techniques adaptées , d’apporter une expertise sur les architectures Cloud , de garantir la qualité et la gouvernance des données (préparation, traçabilité, conformité) et d’optimiser les processus internes. Le poste demande également une collaboration internationale pour partager les bonnes pratiques et améliorer le data-sharing et la protection des données .
Mission freelance
Product Owner
Métiers et fonctions : Pilotage de projet ou de programme, Product owner. Spécialités technologiques : Gestion des incidents, Satisfaction client. Type de facturation : Assistance Technique (facturation avec un taux journalier). Compétences : Technologies et Outils : JIRA, Azure. Soft skills : Autonomie. Langues : Français. Secteurs d'activités : Assurance. Description de la prestation : La mission concerne la gestion du backlog fonctionnel et technique, le contrôle de la qualité et la gestion des incidents, le développement de stratégies de tarification et de positionnement, la traduction de la stratégie en exigences et prototypes, la compréhension et la satisfaction client, l’identification d'améliorations produits, l’adhésion à la vision, la priorisation des activités, la collaboration avec les équipes d’ingénierie, la gestion des lancements, la promotion du produit, la garantie de la conformité aux standards, et la gestion de la fin de vie des produits (migration, décommissionnement).

Offre d'emploi
Développeur Front-end Senior React - Facturation
Développeur Front-end Senior React Le développeur interviendra sur des projets, activités de maintenance et support autour d’une application critique, garantissant la sécurisation des processus de facturation et de clôture. Une attention particulière sera portée à l’amélioration de l’expérience utilisateur via l’interface développée en React.js. Les missions incluent : Conception et implémentation d’applications, traduction des cas d’usage en solutions fonctionnelles (design, développement, sécurité, logs, tests, scalabilité), participation aux revues de code et configuration des environnements. Livraison de services de qualité aux utilisateurs, dans le respect des délais et budgets. Contribution à l’amélioration continue (identification et correction des bugs/bottlenecks), Rédaction de documentation technique en anglais, partage de connaissances et formation de l’équipe.

Offre d'emploi
Azure Data Factory Expert
1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.
Mission freelance
Ingénieur de production (H/F)
Au sein d’une équipe infra, vous interviendrez sur la supervision et l’optimisation des chaînes de traitement automatisées, avec une forte orientation vers l’ordonnancement, l’observabilité et la fiabilisation des workflows. Maintien en conditions opérationnelles et évolutions des traitements automatisés (ordonnancement de jobs, planification, supervision, alerting). Administration, configuration et migration des ordonnanceurs Gestion des incidents Mise en place et gestion de pipelines CI/CD. Documentation rigoureuse des procédures, workflows et incidents. Collaboration transverse avec les équipes Dev, Infra et Sécurité.

Mission freelance
Data engineer (Power BI, ADF, Snowflake) H/F
Notre client dans le secteur Santé et pharma recherche un/une Data Engineer H/F Description de la mission: Notre client souhaite renforcer son effectif avec un freelance possédant des compétences en développement Data. Rattaché au Directeur Service Data Intégration, votre rôle sera d'implémenter et industrialiser les pipelines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. Environnement technique attendus : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.

Offre d'emploi
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.