L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 554 résultats.
Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles
PROPULSE IT
Publiée le
BI
24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Offre d'emploi
Ingénieur Réseau & Sécurité Junior H/F
Le Groupe SYD
Publiée le
12 mois
32k-38k €
300-400 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Réseau & Sécurité Junior H/F 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours/semaine 📝Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur reconnu des services numériques, intervenant sur des environnements multi-clients et multi-sites, avec des enjeux forts de sécurisation des infrastructures, de gestion des flux et de continuité de service. Dans un contexte de renforcement des équipes infrastructure, tu interviens sur des environnements variés et exigeants, où la fiabilité, la sécurité et la qualité de service sont au cœur des priorités. Tu évolueras au sein d’équipes techniques expérimentées, avec un accompagnement pour monter en compétences sur des sujets réseaux et sécurité. Tu auras pour missions de : Gérer l’ouverture et l’administration des flux réseaux. Réaliser des opérations de routage (LAN/WAN). Administrer et exploiter des firewalls, notamment Palo Alto. Participer aux actions de sécurisation des infrastructures. Assurer le support et la résolution d’incidents réseau et sécurité. Intervenir sur des environnements multi-clients et multi-sites. 🧰 Stack technique : Réseaux : routage LAN/WAN, gestion des flux, règles réseau. Sécurité : firewalls (Palo Alto fortement apprécié), politiques de sécurité. Environnements : infrastructures multi-clients, multi-sites, contextes exigeants avec enjeux de sécurité et de disponibilité.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)
FED SAS
Publiée le
60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)
RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint
1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principalesAnalyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requisesCompétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Offre d'emploi
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
Master Data Management (MDM)
1 an
40k-45k €
400-630 €
Île-de-France, France
Bonjour à tous 😀 Nous recherchons un(e) 📌 Contexte Dans le cadre de sa transformation Data, notre client souhaite renforcer la maturité de sa DSI en matière de gouvernance des données et se positionner comme référent Data pour l’ensemble de ses filiales. La démarche s’inscrit en deux grandes phases : → Acculturation & structuration → Outillage & industrialisation 🎯 Missions : 🔹 Phase 1 : Acculturation & structuration Sensibiliser les équipes métiers et IT aux enjeux Data Animer des ateliers (Data Governance, MDM, référentiels) Réaliser un audit de maturité Data Définir les bonnes pratiques de gouvernance Mettre en place les rôles clés (Data Owner, Data Steward) Construire un parcours d’acculturation et d’adoption Data Accompagner la transformation de la DSI en référent Data Groupe 🔹 Phase 2 : Outillage & industrialisation : Déployer un Data Catalogue (DataGalaxy) Structurer les référentiels et le MDM Mettre en place une plateforme de knowledge sharing Définir et implémenter les processus de gouvernance (qualité, documentation, lineage) Animer la gouvernance Data dans la durée ⚙️ Environnement technique : Microsoft Fabric · Databricks · Architecture Medallion (Bronze / Silver / Gold) Talend · Pimcore (MDM) · DataGalaxy · SharePoint 💡 En résumé 👉 Profil hybride stratégique + opérationnel , capable de : Structurer une gouvernance Data from scratch Acculturer et embarquer les équipes Déployer les outils (notamment DataGalaxy) et industrialiser les pratiques
Offre d'emploi
Consultant Data Digital - Google Suite / Piano Analytics F/H
Experis France
Publiée le
40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data Digital - Google Suite / Piano Analytics F/H - Niort Le contexte Experis recrute un Consultant Data Digital F/H pour intervenir au sein d'un grand acteur du secteur de l'assurance , dans un environnement digital à forte volumétrie de données. Vous intégrerez une équipe en charge de la collecte, de la transformation et de la restitution des données issues des canaux digitaux, au sein d'une organisation agile fonctionnant en mode SAFe , avec des livraisons régulières et orientées valeur métier. Vos missions Au cœur des enjeux data et reporting, vous interviendrez sur l'ensemble de la chaîne de valorisation des données digitales : Collaborer avec les équipes produit et métier pour définir les objectifs et KPI des features Accompagner la définition des besoins en tracking digital (Piano Analytics / GTM) Recetter les données en phase de test et après mise en production Préparer, transformer et ingérer les données dans BigQuery (Node.js) Mettre à disposition des données fiabilisées dans Looker Studio Participer à l'analyse des données produites et à l'identification d'axes d'amélioration En complément, vous serez amené(e) à : Superviser le bon fonctionnement des flux d'ingestion quotidiens et corriger les anomalies Intégrer de nouvelles sources de données pour le pilotage global des KPI Contribuer à l'amélioration continue des tracking, process et pratiques data Communiquer activement avec les équipes pluridisciplinaires (PO, UX, développeurs, testeurs, architectes)
Offre d'emploi
Offre de mission Tech Lead Data sur Maison Alfort
EterniTech
Publiée le
API REST
IA
IBM DataStage
3 ans
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Tech Lead Data Contexte de la Mission On recherche un Tech Lead Data qui soit le Lead des développeurs de l'équipe avec la volonté de tirer l'équipe vers des nouvelles pratiques et technologies (Evènementiel, APIsation, Java, Spark etc). Son expertise dans ces outils doit amener à des nouvelles pratiques. Il doit être proactif et capable d'aller échanger aves ses pairs d'autres équipes Data et doit être curieux des nouvelles pratiques et nouveaux outils de marché. Compétences métier • Maitrise des modélisations décisionnelles • Utilisation de l'évènementiel • Développement d’API • Pratique et expertise dans la pratique de sujets liés à la Data Liste des technologies • Power Designer • API Rest en Java • Kafka • Spark • Excellente maitrise du SQL (Oracle & PostgreSQL) • Connaissances solides de l’outil IBM Datastage serait un vrai plus • L'usage de l'IA est obligatoire
Mission freelance
Consultant Data / ERP – Transformation Excel vers ERP & BI (H/F)
Freelance.com
Publiée le
ERP
Power Platform
PowerBI
1 an
Hauts-de-France, France
Dans le cadre d’un programme de transformation digitale d’envergure, vous interviendrez sur la modernisation des usages data avec le déploiement d’un ERP de type Microsoft Dynamics 365 Business Central (environnement Tegos). L’objectif est clair : sortir des usages Excel historiques structurer, automatiser et fiabiliser la donnée rendre les équipes métiers autonomes via des outils intégrés et des reportings modernes (notamment Microsoft Power BI) Vos missions1. Cadrage & analyse des besoins Analyser les usages actuels sous Excel (reporting, KPI, fichiers critiques) Identifier les écarts avec les standards ERP Challenger les besoins pour éviter la reproduction des pratiques existantes 2. Migration & transformation Reprendre et fiabiliser les données issues d’Excel Structurer les données dans l’ERP Concevoir des restitutions via : les modes analyses ERP des dashboards Power BI 3. Automatisation & industrialisation Supprimer les retraitements manuels Mettre en place des flux automatisés (datasets, rafraîchissements) Garantir la traçabilité et la cohérence des données 4. Accompagnement au changement Former les équipes métiers Créer des supports pédagogiques Accompagner la montée en autonomie des utilisateurs 5. Gouvernance data Définir des règles de gestion et de qualité de la donnée Mettre en place des bonnes pratiques (naming, référentiels, contrôles) Assurer la cohérence entre usages métiers et modèle ERP
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Offre d'emploi
🚀 Opportunité – Expert Infrastructure / Data / Middleware (Migration Big Data)
OMICRONE
Publiée le
Ansible
CFT (Cross File Transfer)
IBM DataStage
3 ans
40k-45k €
400-500 €
Île-de-France, France
Dans le cadre d’un projet stratégique de migration d’une plateforme Big Data vers une architecture classique , nous recherchons un expert technique senior capable de piloter et réaliser une migration from scratch. 📍 Localisation : Île-de-France 📅 Démarrage : ASAP 🎯 Vos missions : • Concevoir et mettre en place une nouvelle plateforme data (from scratch) • Installer, configurer et administrer les infrastructures (serveurs, bases de données, middlewares) • Mettre en place une architecture haute disponibilité (actif/passif, actif/actif) • Installer et configurer ETL DataStage et ses composants • Gérer les middlewares (MQSeries, CFT, Autosys…) • Assurer le monitoring (Dynatrace, Elastic, BAM…) • Automatiser les déploiements (Ansible, Jenkins, Git) • Mettre en place les standards sécurité (certificats, chiffrement des flux, conformité) • Documenter, former et accompagner les équipes support (N2/N3) • Participer au support de production et à l’amélioration continue 🛠 Environnement technique : • ETL : DataStage / DataStage TX • Middleware : MQSeries, CFT, Autosys • Infra : Linux, Windows, Kubernetes • Bases de données : Oracle / Exadata • Monitoring : Dynatrace, ElasticSearch • DevOps : Ansible, Jenkins, Git • Réseau & sécurité : Load balancer, DNS, WAF, certificats ✅ Profil recherché : • Expert technique confirmé en infrastructure/data/middleware • Expérience en migration de plateformes complexes • Maîtrise des architectures haute disponibilité • Forte autonomie et capacité à intervenir de bout en bout • Bonne compréhension des enjeux sécurité et performance. • Capacité à interagir avec des équipes techniques et métiers
Mission freelance
Data Platform Engineer (Elastic / OpenSearch / Iceberg / Kubernetes)
EBMC
Publiée le
Elasticsearch
3 mois
400-480 €
Paris, France
Nous recherchons un Data Platform Engineer spécialisé dans les technologies Search , Data Lakehouse et Cloud Native . Le candidat contribuera à la conception, la mise en place et l’industrialisation de solutions basées sur ElasticSearch / OpenSearch , Apache Iceberg et des environnements Kubernetes . Le rôle comporte une forte dimension POC , incluant l’évaluation de nouvelles approches techniques, l’intégration de composants dans des architectures distribuées, ainsi que l’automatisation du provisioning via Ansible . Le poste nécessite une réelle curiosité technique, une capacité à apprendre rapidement et une motivation à travailler sur des sujets innovants et structurants pour la plateforme Data de l’entreprise.
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Offre d'emploi
Administrateur Informatique Réseaux & Sécurité H/F
Le Groupe SYD
Publiée le
DNS
12 mois
30k-35k €
350-380 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Administrateur Informatique Réseaux & Sécurité H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : 1 jour par semaine 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un grand acteur national du secteur des services , opérant des plateformes d’infrastructures critiques à fort enjeu de disponibilité et de sécurité. Dans un contexte de lutte contre la cybercriminalité et de services d’infrastructures mutualisés , l’équipe assure l’administration, l’exploitation et le maintien en condition opérationnelle de plateformes essentielles telles que IPAM, DNS, DHCP, relais de messagerie et NTP . En tant qu’ Administrateur Informatique , tu interviens sur un périmètre réseaux et sécurité , avec des enjeux forts de fiabilité, performance et continuité de service , dans un environnement structuré et outillé. Tu auras pour missions de : Administrer et exploiter les plateformes IPAM, DNS, DHCP, relais de messagerie, NTP, annuaires , dans le respect des règles d’exploitation. Assurer le maintien en condition opérationnelle des plateformes réseaux et sécurité (disponibilité, performance, qualité et sécurité des services). Traiter les incidents et assurer le support de niveau 2 sur le périmètre confié. Réaliser les changements , répondre aux requêtes utilisateurs et contribuer au respect des engagements de services. Participer au déploiement de nouvelles plateformes et à la mise en œuvre d’outils de diagnostic, d’analyse de logs et de supervision. Automatiser certaines tâches d’administration et rédiger la documentation technique , les procédures d’exploitation et les DFB de supervision . 🧰 Stack technique : Réseaux & Sécurité : IPAM, DNS, DHCP, relais de messagerie, NTP, authentification, cloisonnement réseau, cybersécurité Systèmes & Environnements : Virtualisation, environnement Azure Outils & Process : ServiceNow (module PPM – projets), automatisation, outils d’analyse log et de diagnostic Contexte : services d’infrastructures mutualisés, plateformes critiques, environnement sécurisé
Mission freelance
Quality Data/Lead Data Referentiel
Cherry Pick
Publiée le
Finance
IA
Numpy
12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5554 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois