L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 202 résultats.
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-65k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : s0hs2przfb
Mission freelance
Administrateur Système et réseau H/F
Les Filles et les Garçons de la Tech
Publiée le
Administration Windows
DNS
Fortinet
1 an
350-400 €
Pau, Nouvelle-Aquitaine
Vous rejoignez notre équipe IT composée de 3 personnes, pour participer au maintien en condition opérationnelle (MCO) du SI et participer à l’administration, la sécurisation et l’évolution de l'infrastructure informatique. Vous participez au support utilisateur de premier niveau pour l’ensemble des salariés (environ 35 personnes sur le site de Jurançon et 15 personnes en home office). Vous participerez également à un projet de migration d’une partie du SI vers un cloud privé. Missions principales : Sous la responsabilité du Responsable du Pôle Systèmes & Réseaux vous participez aux différentes missions de l’équipe. 1. MCO / Exploitation Assurer le maintien en condition opérationnelle des moyens informatiques (serveurs, réseau, services). Administrer, superviser et optimiser l’infrastructure systèmes (Windows/Linux) : performance, capacity, patching, durcissement. Administrer, superviser et optimiser l’infrastructure réseau : LAN/WAN, VLAN, interconnexions, Wi-Fi, routage, QoS (selon contexte), adressage. Sécurité Gérer la sécurité informatique : politiques d’accès, habilitations, durcissement, supervision sécurité. Administrer les équipements Fortinet : règles firewall, NAT, VPN, filtrage, journalisation, mises à jour, segmentation. Contribuer à la gestion des vulnérabilités et à l’amélioration continue (bonnes pratiques, recommandations). Sauvegardes / PRA Gérer le parc serveurs, les sauvegardes Veeam, la vérification des jobs et la restauration. Participer/tenir à jour les procédures de restauration, tests (PRA/PCA si applicable). Bases de données / Flux Exploiter et administrer les bases MS SQL Server : supervision, tâches d’exploitation (sauvegardes, maintenance, droits, capacité). Administrer / superviser les flux de données (selon outils et interconnexions existants). Documentation & Support Rédiger/maintenir la documentation : installation, maintenance, exploitation, schémas réseau, procédures. Installer et maintenir les logiciels (poste de travail et/ou serveurs selon périmètre). Assurer l’assistance et support technique aux utilisateurs (N2/N3 selon organisation). Veille & Évolution Assurer une veille technologique et être force de proposition sur les évolutions du SI (systèmes, réseau, sécurité, cloud).
Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)
Deodis
Publiée le
Data quality
Gouvernance
1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
Offre d'emploi
Data Engineer, GCP (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Offre d'emploi
DATA SCIENTIST
GRLCI
Publiée le
Python
Boulogne-Billancourt, Île-de-France
Nous recherchons pour l'un de nos clients un Data Scientist avec plus de 2 ans d'expérience pour renforcer une équipe data. Vous aurez pour mission : Participer à l’amélioration continue du SI : Explorer des données et production d’analyses, Identifier et mettre en œuvre des indicateurs de suivi et des solutions d’amélioration, Réaliser des Proof of Concept de solution pour des problématiques métiers ou SI. o Analyse du problème, o Identification de solutions potentielles, o Réalisation des solutions, o Vérification que le POC répond à la problématique, o Le cas échéant, aide à l’industrialisation du POC, · Veille sur les domaines de recherche en informatique, · Aide et accompagnement des équipes MOE et MOA sur les méthodes, algorithmes, technologies utilisées dans les POC.
Mission freelance
Consultant sécurité / fraude – SI bancaire - Toulouse
Mon Consultant Indépendant
Publiée le
Data management
Direction de projet
6 mois
400-450 €
Toulouse, Occitanie
Consultant Sécurité / Fraude – SI Bancaire 📍 Toulouse 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 450 € HT 🚀 Démarrage ASAP Objectif : Renforcer la sécurité des applications bancaires, avec un focus sur la lutte contre la fraude à distance (prévention, détection, réaction). Mission : Définir les dispositifs de lutte contre la fraude sur les parcours clients Rédiger les spécifications sécurité (logs, événements, traces) Réaliser des analyses de risques fraude Concevoir et améliorer les schémas de détection avec le SOC Contribuer aux travaux data / IA pour la détection de fraude Proposer des évolutions SI pour renforcer la résistance à la fraude Intervenir en expertise sur des cas complexes (support métiers / BO fraude) À savoir : Présence sur site requise à Toulouse. Mission à forte dimension expertise, avec enjeux critiques autour de la fraude.
Mission freelance
DATA ANALYST ASSET MANAGEMENT REFERENTIEL (NEOXAM)
PARTECK INGENIERIE
Publiée le
Data quality
Python
SQL
12 mois
400-550 €
75000, Paris, Île-de-France
Contexte Dans le cadre d’une stratégie Data, mise en place d’un système MDM (Master Data Management) basé sur une Data Platform pour centraliser et exposer les référentiels via APIs. Mission Intégré à l’équipe Data Referential, le Data Analyst intervient en lien avec les équipes Data & Analytics pour : Recueillir et formaliser les besoins métiers Rédiger user stories, critères de tests Réaliser des analyses de données et scripts ponctuels (SQL/Python) Concevoir et faire évoluer des datasets référentiels Contribuer à la qualité des données et à la modélisation Participer aux sujets de data catalog & metadata Documenter et accompagner la mise en production Environnement MDM (Neoxam DataHub), Data Platform Données utilisées pour : ESG, reporting, finance, front office Contexte international avec projets de migration Profil Data Analyst (3–6 ans d’expérience) SQL requis, Python apprécié Bonne maîtrise data modeling / data quality Capacité à faire le lien entre métier et technique Conditions Localisation : Paris Télétravail : jusqu’à 3 jours/semaine Durée : ~12 mois (2026–2027)
Offre d'emploi
Data Analyst en alternance H/F
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL
69009, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Business Data Analyste SQL (h/f)
emagine Consulting SARL
Publiée le
1 mois
500-600 €
92400, Courbevoie, Île-de-France
Nous recherchons un Business Analyste Data Profil recherché : Bac +5 (école d’ingénieur ou équivalent) – obligatoire Minimum 5 ans d’expérience en tant que Business Analyste, idéalement au sein d’équipes IT Maîtrise des fondamentaux du métier de BA : recueil des besoins, rédaction des spécifications, stratégie de tests (y compris automatisation), animation d’ateliers Solide expérience sur des projets data : modélisation de données (data modeling), SQL, architecture data, analyse approfondie des données Expérience sur des plateformes décisionnelles (reporting, analytics) Compétences clés : Très bonne maîtrise de SQL et d’Excel Bonne connaissance de la suite Microsoft Office Anglais professionnel requis Soft skills : Dynamisme et proactivité Esprit structuré et analytique Excellente communication orale Capacité à travailler dans un environnement international et multi-équipes (contexte de transformation multi-pays)
Offre d'emploi
Administrateur Réseaux et Systèmes (H/F)
SEA TPI
Publiée le
38k-40k €
Port-Saint-Louis-du-Rhône, Provence-Alpes-Côte d'Azur
Nous recrutons un Administrateur Systèmes & Réseaux avec une orientation réseaux (70% réseaux et 30% systèmes) pour un acteur majeur de la logistique à Port-Saint-Louis-du-Rhône (13). Au cœur d'un environnement industriel exigeant, vous participez activement à la disponibilité, à la sécurité et à la performance d'un système d'information essentiel aux opérations du premier terminal portuaire français en Méditerranée. Le poste inclut des interventions ponctuelles en hauteur ainsi qu'un système d'astreintes. Vos principales missions seront les suivantes : • Administrer et maintenir notre parc de serveurs (majoritairement Windows, un peu de Linux). • Assurer la supervision, les mises à jour, la sauvegarde et la sécurité de l'infrastructure. • Gérer et optimiser l'architecture virtualisée (VMware). • Administrer Active Directory (DNS, DHCP, GPO) et les services Office 365, Azure AD, Intune. • Gérer les réseaux : flux, routage, Wi-Fi interne/externe, VLAN, VPN, QoS. • Assurer la gestion du stockage (SAN/NAS) et de la téléphonie sur IP. • Participer au support utilisateur de proximité ponctuel (niveau 2/3). • Collaborer avec les fournisseurs et prestataires. • Réaliser des interventions nécessitant du travail en hauteur. • Participer aux astreintes (1 toutes les 3 semaines – 18h→8h). Les missions énumérées ci-dessous ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 3f3zdoktyv
Offre d'emploi
QA Data (H/F)
SMARTPOINT
Publiée le
Databricks
JIRA
Microsoft Power BI
3 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un(e) QA Data (H/F) pour rejoindre la squad Équipement de la Maison , rattaché(e) au Pôle Qualité Data . Vous évoluerez dans un environnement agile et structuré , rythmé par : Des rituels agiles cadrés et trimestriels Des cycles de réalisation de 3 semaines (Sprint Planning, Affinage, Sprint Review, Daily Meeting) Une culture d'équipe basée sur l'entraide et l'autonomie Pilotage de la qualité Définir et réaliser la stratégie de test adaptée au contexte Data Analyser et évaluer les cas d'usage et User Stories Rédiger les plans de test , identifier les prérequis et spécifier les jeux de données Identifier et réceptionner les environnements de test Maintenir et faire évoluer le référentiel de test Exécution & suivi Exécuter les cas de tests fonctionnels Réaliser des tests d'intégration 2 à 2 , des tests end-to-end et des tests de surface dans un contexte Data Créer et assurer le suivi des défauts avec les différentes parties prenantes Rédiger les Procès-Verbaux de recette Présenter les sujets en CAB (Change Advisory Board) pour le passage en production Collaboration & amélioration continue Participer activement aux ateliers et rituels agiles Contribuer à l' amélioration continue des pratiques et process qualité Être force de proposition pour gagner en efficacité et en qualité
Offre d'emploi
Administrateur réseaux (H/F)
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
40k-45k €
Brest, Bretagne
Nous recherchons notre prochain(e) administrateur réseaux (H/F) pour une opportunité sur Brest dans une secteur de pointe. Ce qui vous attend : - MCO/MCS/MCH des infrastructures réseaux de plusieurs sites, - Contribuer à la mise en place des normes & nouveaux standards du LAN ; - Participer à l'amélioration des infrastructures LAN (réseaux locaux, switches, routeurs, etc.) ; - Assurer le niveau 2 & 3 des incidents LAN ; - Déléguer des actes de niveau N1/N2 à la Squad Supervision à travers des transferts de compétences et procédures ; - Traiter les demandes LAN à travers l'outil de ticketing et projets ; - Concevoir, développer et implémenter des processus d'automatisation pour les tâches récurrentes et critiques liées au LAN (configuration automatique, mise à jour, gestion des VLANs, etc.) ; - Collaborer avec les équipes de supervision pour l'intégration des outils d'automatisation dans les workflows existants ; - Réaliser des tests et des validations pour s'assurer que les systèmes automatisés répondent aux exigences opérationnelles ; - Documenter les processus d'automatisation mis en place et fournir des formations aux équipes internes ; - Documentation technique complète incluant les processus de gestion des incidents et les outils d'automatisation. Référence de l'offre : z9165u3mer
Offre d'emploi
ARCHITECTE DATA (H/F)
GROUPE ALLIANCE
Publiée le
Cloudera
MEGA
TOGAF
60k-75k €
France
ACCROCHE SI POUR TOI, CHAQUE DONNEES A SA PLACE, CETTE ANNONCE TE METTRA SUR LA BONNE VOIE ... CE QUE TU RECHERCHES : Travailler sur des architectures Data performantes et scalables Participer à des projets innovants de valorisation des données Relever des défis autour du Big Data, du Cloud et de l’IA Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à la mise en place et à l’optimisation des architectures data pour une exploitation stratégique et innovante : Analyse des besoins métier et data, tu feras Modélisation et structuration des données, tu assureras Solutions d’ingestion et d’exploitation, tu concevras Bonnes pratiques Data, tu instaureras Veille sur les innovations Data, tu réaliseras Les équipes, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de 10 ans minimum dans l’architecture Data Expert(e) des plateformes de Modèle Logique de Données Habile avec les outils : et méthologies TOGAF, UML & Merise, Scrum, Safe AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Rigoureux(se) : chaque donnée doit être bien placée Curieux(se) : tu suis les tendances Data et IA Visionnaire : tu anticipes les besoins Data des entreprises Pédagogue : tu sais expliquer la valeur des données Organisé(e) : tu aimes structurer et optimiser Communicant(e) : tu fais le lien entre métier et technique
Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)
Digistrat consulting
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)
ASTRELYA
Publiée le
Collibra
Data governance
IA
92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Offre d'emploi
Ingénieur Systèmes & Réseaux / DevOps (H/F)
Experis France
Publiée le
40k-50k €
Toulouse, Occitanie
Ingénieur Systèmes & Réseaux / DevOps (H/F) - Toulouse Nous recrutons un Ingénieur Systèmes & Réseaux / DevOps (H/F) . Vous interviendrez au cœur des infrastructures techniques afin de garantir la disponibilité, la performance et la sécurité des environnements systèmes et applicatifs. Votre rôle est clé dans l'industrialisation, l'automatisation et le maintien en conditions opérationnelles des plateformes critiques. Les missions principales : Administrer et maintenir les infrastructures systèmes : Parcs de serveurs Linux Redhat et Windows Server Infrastructures de supervision Zabbix Clusters Kubernetes K3S Plateformes d'automatisation AWX Environnements de virtualisation KVM Bases de données MariaDB et PostgreSQL Concevoir et maintenir des pipelines CI/CD sous GitLab pour la génération de paquets applicatifs de logiciels internes. Créer et maintenir des images de conteneurs (Podman). Qualifier les équipements afin de garantir leur compatibilité avec les environnements OSURI / BOPI . Assurer les mises en production hebdomadaires des applicatifs OSURI / BOPI. Intervenir en support de niveau 3 , en lien avec les équipes techniques et projets.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5202 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois