L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 410 résultats.
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Mission freelance
Développeur DataStage
ARGANA CONSULTING CORP LLP
Publiée le
Big Data
ETL (Extract-transform-load)
IBM DataStage
12 mois
450 €
Joinville-le-Pont, Île-de-France
🔎 Contexte de mission Dans le cadre des projets de la Direction Informatique Groupe (périmètre Sécurité Financière), vous interviendrez sur la mise en œuvre des indicateurs AML au sein de nouveaux outils en cours de développement. La mission s’inscrit dans un environnement bancaire exigeant, avec des enjeux liés à la conformité et au traitement de données financières. 🎯 Missions principales et rôle En tant que Concepteur / Développeur DataStage , vous serez en charge de : Développer les contrats d’interface entre le SI, le DRE et les Datamarts Concevoir et faire évoluer les flux de données liés aux projets AML (LAB, TRACE, etc.) Créer et maintenir les composants d’intégration de données (CI) Développer les packages DataStage associés Participer aux phases de tests et de recette Accompagner les mises en production (MEP) 🚀 Objectifs Assurer la bonne intégration des flux de données dans l’écosystème SI Garantir la qualité, la fiabilité et la conformité des données AML Contribuer à l’évolution des outils de lutte contre le blanchiment 🛠️ Compétences requises Expérience de 3 à 5 ans en développement, idéalement en environnement bancaire ou marchés financiers Maîtrise des environnements Big Data et expertise en ETL DataStage Bonne connaissance de JIRA (obligatoire) Connaissance du périmètre fonctionnel comptabilité multinormes Expérience en méthodologie Agile Anglais professionnel requis
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
Product Owner "Innovation & Cartographie Réseau" (H/F)
Cherry Pick
Publiée le
Réseaux
12 mois
550-600 €
Paris, France
vous intégrez une équipe en mode squad légère (2 à 3 personnes) pour piloter un projet stratégique et ambitieux : la création "from scratch" d'une plateforme de cartographie réseau moderne. L’objectif est de transformer des données cartographiques complexes en un outil d'intelligence opérationnelle capable de détecter les coupures de fibre en temps réel et d'en calculer l'impact client de manière automatique. 🚀 Vos Missions : Esprit Intrapreneur & "From Scratch" En tant que Product Owner, vous n'êtes pas un simple gestionnaire de backlog, mais le véritable chef d'orchestre d'un produit naissant. 1. Discovery & Design (Cadrage du besoin) Immersion Terrain : Aller à la rencontre des métiers et des techniciens pour comprendre les réalités de l'infrastructure fibre. Collecte de Données : Identifier et consolider les sources de données (SIG, plans, chantiers) pour alimenter la plateforme. Définition du MVP : Prioriser les fonctionnalités pour sortir rapidement une première version utilisable, en évitant l'effet tunnel. 2. Delivery & Agilité (Pilotage) Gestion du Backlog : Rédaction des User Stories avec une approche technico-fonctionnelle. Itérations Courtes : Rythmer les sprints (2 à 3 semaines) pour garantir une visibilité constante au management. Qualité & Tests : S'assurer que le système d'alertes automatiques est fiable et précis. 3. Product Culture (Le rôle de "Challenger") Challenger le Métier : Savoir dire "non" aux demandes superflues pour garder un produit simple et efficace. Challenger la Tech : Discuter avec les développeurs sur les flux de données et la logique algorithmique du calcul d'impact. Vision Long Terme : Préparer l'imbrication de cet outil dans le portail principal d'Axione à horizon 12 mois. 🏢 Modalités & Environnement Localisation : Poste basé sur site ( 3 jours par semaine obligatoires ). Langue : Environnement franco-français (Anglais non requis). Process de recrutement : Court et efficace (1 seul entretien de 30 minutes). Durée : Mission de longue durée.
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance. • Capacité à interagir avec des équipes techniques et métiers
Mission freelance
Administrateur Système Réseaux H/F
HAYS France
Publiée le
Active Directory
Fortinet
Microsoft Windows
6 mois
Nouvelle-Aquitaine, France
Pour cette mission, vous serez rattaché(e) à une équipe IT engagée et opérationnelle. Quel sera votre quotidien ? En tant qu’acteur/actrice clé de l’équipe, vous serez amené(e) à : • Assurer l’administration et la maintenance des infrastructures systèmes et réseaux afin de garantir leur disponibilité, leur performance et leur sécurité. • Administrer les environnements Windows , Active Directory et les infrastructures de virtualisation. • Gérer et optimiser les plateformes de virtualisation VMWare (expertise indispensable) ainsi que HyperV . • Intervenir sur les équipements réseau et sécurité, notamment Fortinet (firewalls, règles, VPN). • Participer aux tâches d’administration courantes : serveurs, réseaux, supervision, support N2/N3. • Documenter les procédures et contribuer à l’amélioration continue de l’infrastructure. Stack Technique : • Systèmes : Windows • Annuaire : Active Directory • Virtualisation : VMWare , HyperV • Réseau & Sécurité : Fortinet • Environnements serveurs et réseaux Informations complémentaires : • Localisation : Bayonne • Environnement structuré • Une expérience dans le secteur de la santé serait un vrai plus • Format : Pré-embauche (prestation de 3-6 mois, puis CDI direct chez le client)
Mission freelance
Expert Réseau & Sécurité (VPN / mobilité) (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
Active Directory
IPv4
IPv6
36 mois
550-600 €
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Arcatem , située dans le 10ᵉ arrondissement, est une entité spécialisée en Sécurité et Réseaux. Forte de 17 ans d’expertise , elle intègre le Groupe en 2017. Elle accompagne les grands comptes clients basés en Ile-de-France dans leurs projets et propose des prestations d’architecture, d’expertise technique et d’ingénierie N3 auprès d’acteurs majeurs dans différents secteurs d’activités. C’est au sein de cette entité qu’évolue une équipe de proximité engagée aux côtés des collaborateurs, composée d’un directeur technique, d’une RRH, ainsi que d’un directeur, M. Boris Gunther, présent depuis le début de l’aventure. Reconnue pour son exigence technique, son haut niveau de certification, et ses valeurs humaines, elle est aujourd’hui un acteur clé sur des solutions leaders comme Cisco, Fortinet, Palo Alto, Check Point, F5 ou encore sur des solutions cloud AZURE et AWS. Votre mission (si vous l’acceptez) : Au sein d’un grand compte bancaire, vous intervenez sur des environnements critiques autour des solutions de mobilité sécurisée (VPN). Concrètement, vous allez : Recueillir et analyser les besoins métiers autour des solutions de mobilité (VPN) Définir la roadmap technique autour de Cisco AnyConnect / ASA Valider et intégrer les nouvelles versions (tests en LAB, packaging, documentation) Participer au déploiement avec les équipes Poste de Travail Identifier les vulnérabilités et piloter les plans de remédiation Assurer le support N3 sur les incidents complexes Contribuer à l’architecture des solutions de mobilité Participer à l’évolution des solutions IAM liées aux accès distants Un mix parfait entre RUN (MCO N3) et BUILD (projets d’évolution) Le terrain de jeu ? Cisco ASA / AnyConnect (VPN SSL) Pulse Secure Firewalls Palo Alto Active Directory Réseaux : TCP/IP, IPv4, IPv6 Services : DNS / DHCP / NAC Environnements Windows Analyse de traces réseaux & troubleshooting avancé Le profil que nous recherchons : Vous avez au moins 7 ans d’expérience minimum en réseau & sécurité Vous êtes expert sur les environnements VPN Cisco (AnyConnect / ASA) Vous avez une vraie expérience en support N3 / MCO Vous avez déjà évolué en environnement grand compte / critique Vous êtes à l’aise en troubleshooting complexe Vous avez une vision architecture + exploitation Vous êtes autonome, structuré et force de proposition Vous avez un bon niveau d’anglais Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions: Statut : Indépendant / Freelance TJM : Entre 550 € et 600€ (Selon votre expertise) Démarrage possible : Début juin Durée : 36 mois Mode de travail : Hybride (présence sur site requise pour les sujets critiques / ateliers + télétravail possible) Contexte :Environnement hautement sécurisé et critique / Forte volumétrie d’utilisateurs nomades (accès distant au SI) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Administrateur Systèmes et Réseaux
SILKHOM
Publiée le
Grafana
Linux
Prometheus
3 mois
Paris, France
Mission : Vous rejoignez l’équipe infrastructure dans un contexte de forte charge projet, avec plusieurs chantiers critiques à mener en parallèle. En tant qu’Administrateur Systèmes & Réseaux, vous intervenez sur des environnements on-premise multi-sites et prenez en charge des sujets à fort enjeu de disponibilité et de performance. Vos principales missions seront : ·Piloter le décommissionnement de serveurs legacy (plan de cutover, rollback, zéro interruption non planifiée) ·Étendre et fiabiliser le réseau sur plusieurs sites ·Améliorer l’observabilité de l’infrastructure (Grafana / Prometheus) ·Participer au déploiement de serveurs et d’applications pour les équipes internes ·Mettre en place et gérer des solutions de stockage et de sauvegarde (politiques de backup, procédures de recovery) ·Contribuer à l’installation d’infrastructures pour de nouveaux équipements techniques ·Gérer les systèmes d’accès et de contrôle (badges, accès multi-sites) Vous intervenez également sur des sujets structurants liés à la gestion du stockage, des sauvegardes et de l’infrastructure globale. Environnement technique ·Infrastructure multi-sites on-premise ·Linux ·Réseau : switching, routing, VLAN, firewall ·Réseaux 10Gbps, tunnels IPSec ·Monitoring : Grafana, Prometheus ·Stockage : NFS, Ceph (ou équivalent) ·Cloud : S3NS (basé GCP), migration vers GCP à venir
Offre d'emploi
Data engineer informatica expérimenté H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
Mission freelance
Quality Data/Lead Data Referentiel
Cherry Pick
Publiée le
Finance
IA
Numpy
12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA
VISIAN
Publiée le
Azure
Azure Data Factory
Data quality
1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Offre d'emploi
Ingénieur Réseaux Sénior H/F
SEA TPI
Publiée le
50k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intervenez au sein d'une infrastructure stratégique du sud de la France, où performance technologique et continuité de service sont essentielles pour assurer le bon fonctionnement d'un site accueillant plusieurs millions de passagers par an. Dans ce contexte exigeant, nous recherchons un Ingénieur Réseaux senior disposant également de solides compétences en Systèmes, capable d'intervenir sur des environnements techniques complexes, de garantir la fiabilité des infrastructures et de contribuer à l'évolution des systèmes d'information. • Conception et évolution des architectures réseau et sécurité : analyser les besoins, proposer des solutions adaptées et faire évoluer les infrastructures existantes. • Gestion des incidents majeurs de sécurité : identifier, résoudre et documenter les incidents critiques impactant les réseaux et la sécurité. • Définition et mise en œuvre des politiques de sécurité réseau : élaborer des règles et standards garantissant la protection des infrastructures et des données. • Architecture et gestion des infrastructures LAN, Wi-Fi et SD-WAN multi-sites : assurer la performance, la disponibilité et la résilience des réseaux sur l'ensemble des sites. • Optimisation des performances et de la disponibilité réseau : analyser les flux, identifier les goulots d'étranglement et proposer des améliorations continues. • Conception et déploiement des architectures VPN site-à-site et pour utilisateurs nomades : garantir l'accès sécurisé aux ressources de l'entreprise. • Architecture et optimisation des load balancers F5 : assurer l'équilibrage de charge, la haute disponibilité et la performance des applications critiques. • Audit, conformité et durcissement des infrastructures réseau : mettre en place des contrôles et recommandations pour renforcer la sécurité et répondre aux normes en vigueur. • Intégration avec les outils de supervision et de sécurité : connecter les infrastructures réseau aux systèmes de monitoring et d'alerte pour anticiper les incidents. • Définition des standards et procédures RUN réseau et sécurité : rédiger et maintenir les bonnes pratiques opérationnelles et procédures pour l'exploitation quotidienne Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : wjmpfqiv4z
Mission freelance
Lead Data Architecte (Convergence & MDM)
Pickmeup
Publiée le
.NET
Master Data Management (MDM)
PostgreSQL
3 mois
800-950 €
Paris, France
Le groupe est un acteur majeur de l'AdTech qui a récemment finalisé l'acquisition de deux entités stratégiques en 2025. L'enjeu actuel est de piloter la convergence technique et fonctionnelle de trois écosystèmes distincts vers une plateforme unique et cohérente. Le défi ne réside pas seulement dans la migration technique, mais dans l'unification de périmètres fonctionnels fragmentés pour couvrir l'intégralité du cycle de vie de l'investissement média Missions principales Sous la responsabilité du CTO, vous serez l'architecte et le garant de la nouvelle structure de données unifiée du groupe. Vos missions se décomposent en deux phases : 1. Conception de l'Architecture Cible (Vision Globale) Modélisation Unifiée : Concevoir un modèle de données cible couvrant l'ensemble du cycle média : budget, planning, achat, activation, facturation et audit. Stratégie d'Identité & Taxonomie : Définir une stratégie d'ID partagée et des taxonomies standardisées pour réconcilier trois systèmes aux structures et granularités hétérogènes. Modèle de Configurabilité : Concevoir un système permettant une haute personnalisation par client (hiérarchies spécifiques, règles métiers, champs optionnels) tout en préservant un cœur de données stable et robuste. Multi-tenant & Connectivité : Évaluer et choisir les meilleurs patterns d'isolation des données (tenancy) et définir les modèles d'échange avec les écosystèmes externes (DSPs, ERP, plateformes d'activation). 2. Mise en œuvre Opérationnelle (Focus Phase 1) Implémentation Hands-on : Contrairement à un rôle de pur conseil, vous participerez activement au développement de la première brique logicielle. Focus Media Planning : Piloter l'implémentation prioritaire du module "Planning" et des entités MDM associées dans un délai de 2 mois. Convergence MDM : Orchestrer la transition entre le Master Data Management (MDM) actuel de la maison mère (Snowflake/Python) et les systèmes acquis (SQL Server / .NET).
Offre d'emploi
Alternant(e) - Chargé(e) de Projet Market Data (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Lestrem, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6410 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois