L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 391 résultats.
Mission freelance
Administrateur Système Réseaux H/F
HAYS France
Publiée le
Active Directory
Fortinet
Microsoft Windows
6 mois
Nouvelle-Aquitaine, France
Pour cette mission, vous serez rattaché(e) à une équipe IT engagée et opérationnelle. Quel sera votre quotidien ? En tant qu’acteur/actrice clé de l’équipe, vous serez amené(e) à : • Assurer l’administration et la maintenance des infrastructures systèmes et réseaux afin de garantir leur disponibilité, leur performance et leur sécurité. • Administrer les environnements Windows , Active Directory et les infrastructures de virtualisation. • Gérer et optimiser les plateformes de virtualisation VMWare (expertise indispensable) ainsi que HyperV . • Intervenir sur les équipements réseau et sécurité, notamment Fortinet (firewalls, règles, VPN). • Participer aux tâches d’administration courantes : serveurs, réseaux, supervision, support N2/N3. • Documenter les procédures et contribuer à l’amélioration continue de l’infrastructure. Stack Technique : • Systèmes : Windows • Annuaire : Active Directory • Virtualisation : VMWare , HyperV • Réseau & Sécurité : Fortinet • Environnements serveurs et réseaux Informations complémentaires : • Localisation : Bayonne • Environnement structuré • Une expérience dans le secteur de la santé serait un vrai plus • Format : Pré-embauche (prestation de 3-6 mois, puis CDI direct chez le client)
Offre d'emploi
Réseau & Sécurité (H/F)
Lùkla
Publiée le
Cisco
DataCenter Infrastructure Management (DCIM)
Fortinet
40k-60k €
Paris, France
Dans le cadre de plusieurs projets stratégiques menés pour des clients grands comptes , nous recherchons actuellement plusieurs profils Réseau & Sécurité pour renforcer nos équipes en région parisienne . Les missions s’inscrivent dans des contextes variés allant du RUN de production (N2/N3) à des projets d’évolution d’infrastructures , jusqu’à des rôles plus orientés expertise ou architecture . Selon votre profil et votre appétence, vous pourrez intervenir sur le maintien en condition opérationnelle , la gestion d’incidents complexes , la sécurisation des flux , la micro‑segmentation , ou encore la conception d’architectures réseau et sécurité . Les environnements techniques sont riches et exigeants : réseaux LAN/WAN/Datacenter , infrastructures Cisco (Nexus, ACI) , solutions de sécurité Fortinet, Palo Alto, Checkpoint , NSX‑T , VXLAN/EVPN , F5 , WAF, proxy, VPN, dans des contextes fortement normés.
Mission freelance
Data Product Owner (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
Offre d'emploi
DATA ENGINEER
VADEMI
Publiée le
Apache Spark
Azure
Databricks
1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H
SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning
12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Mission freelance
Expert Réseau & Sécurité (VPN / mobilité) (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
Active Directory
IPv4
IPv6
36 mois
550-600 €
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Arcatem , située dans le 10ᵉ arrondissement, est une entité spécialisée en Sécurité et Réseaux. Forte de 17 ans d’expertise , elle intègre le Groupe en 2017. Elle accompagne les grands comptes clients basés en Ile-de-France dans leurs projets et propose des prestations d’architecture, d’expertise technique et d’ingénierie N3 auprès d’acteurs majeurs dans différents secteurs d’activités. C’est au sein de cette entité qu’évolue une équipe de proximité engagée aux côtés des collaborateurs, composée d’un directeur technique, d’une RRH, ainsi que d’un directeur, M. Boris Gunther, présent depuis le début de l’aventure. Reconnue pour son exigence technique, son haut niveau de certification, et ses valeurs humaines, elle est aujourd’hui un acteur clé sur des solutions leaders comme Cisco, Fortinet, Palo Alto, Check Point, F5 ou encore sur des solutions cloud AZURE et AWS. Votre mission (si vous l’acceptez) : Au sein d’un grand compte bancaire, vous intervenez sur des environnements critiques autour des solutions de mobilité sécurisée (VPN). Concrètement, vous allez : Recueillir et analyser les besoins métiers autour des solutions de mobilité (VPN) Définir la roadmap technique autour de Cisco AnyConnect / ASA Valider et intégrer les nouvelles versions (tests en LAB, packaging, documentation) Participer au déploiement avec les équipes Poste de Travail Identifier les vulnérabilités et piloter les plans de remédiation Assurer le support N3 sur les incidents complexes Contribuer à l’architecture des solutions de mobilité Participer à l’évolution des solutions IAM liées aux accès distants Un mix parfait entre RUN (MCO N3) et BUILD (projets d’évolution) Le terrain de jeu ? Cisco ASA / AnyConnect (VPN SSL) Pulse Secure Firewalls Palo Alto Active Directory Réseaux : TCP/IP, IPv4, IPv6 Services : DNS / DHCP / NAC Environnements Windows Analyse de traces réseaux & troubleshooting avancé Le profil que nous recherchons : Vous avez au moins 7 ans d’expérience minimum en réseau & sécurité Vous êtes expert sur les environnements VPN Cisco (AnyConnect / ASA) Vous avez une vraie expérience en support N3 / MCO Vous avez déjà évolué en environnement grand compte / critique Vous êtes à l’aise en troubleshooting complexe Vous avez une vision architecture + exploitation Vous êtes autonome, structuré et force de proposition Vous avez un bon niveau d’anglais Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions: Statut : Indépendant / Freelance TJM : Entre 550 € et 600€ (Selon votre expertise) Démarrage possible : Début juin Durée : 36 mois Mode de travail : Hybride (présence sur site requise pour les sujets critiques / ateliers + télétravail possible) Contexte :Environnement hautement sécurisé et critique / Forte volumétrie d’utilisateurs nomades (accès distant au SI) Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
ARCHITECTE DATA EXPERT
Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka
3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Offre d'emploi
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
Master Data Management (MDM)
1 an
40k-45k €
400-630 €
Île-de-France, France
Bonjour à tous 😀 Nous recherchons un(e) 📌 Contexte Dans le cadre de sa transformation Data, notre client souhaite renforcer la maturité de sa DSI en matière de gouvernance des données et se positionner comme référent Data pour l’ensemble de ses filiales. La démarche s’inscrit en deux grandes phases : → Acculturation & structuration → Outillage & industrialisation 🎯 Missions : 🔹 Phase 1 : Acculturation & structuration Sensibiliser les équipes métiers et IT aux enjeux Data Animer des ateliers (Data Governance, MDM, référentiels) Réaliser un audit de maturité Data Définir les bonnes pratiques de gouvernance Mettre en place les rôles clés (Data Owner, Data Steward) Construire un parcours d’acculturation et d’adoption Data Accompagner la transformation de la DSI en référent Data Groupe 🔹 Phase 2 : Outillage & industrialisation : Déployer un Data Catalogue (DataGalaxy) Structurer les référentiels et le MDM Mettre en place une plateforme de knowledge sharing Définir et implémenter les processus de gouvernance (qualité, documentation, lineage) Animer la gouvernance Data dans la durée ⚙️ Environnement technique : Microsoft Fabric · Databricks · Architecture Medallion (Bronze / Silver / Gold) Talend · Pimcore (MDM) · DataGalaxy · SharePoint 💡 En résumé 👉 Profil hybride stratégique + opérationnel , capable de : Structurer une gouvernance Data from scratch Acculturer et embarquer les équipes Déployer les outils (notamment DataGalaxy) et industrialiser les pratiques
Mission freelance
Data Steward
Signe +
Publiée le
BI
12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Offre d'emploi
Développeur web / Data (H/F)
ADSearch
Publiée le
50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Mission freelance
Scrum master Data
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 mois
400-550 €
Paris, France
POSTE: SCRUM MASTER DATA SENIOR Objectifs de la mission : · Uniformiser les pratiques Agile sur l’ensemble du périmètre · Stabiliser et sécuriser les cycles de sprint · Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication · Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap · Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention · Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros · Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée · Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation · Mise en place / harmonisation de la Definition of Ready et Definition of Done · Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery · Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory Livrables types attendus · Cadre Agile documenté et harmonisé · Processus formalisés (production, arbitrage, communication) · Roadmap + capacité prévisionnelle · Tableau de bord CAF / consos / KPIs · Release notes pour chaque MEP · Synthèse et présentation aux responsables Data Profil recherché : · 8+ ans d’expérience en Scrum Mastery dans des contextes complexes et exigeants · Expertise en delivery Data · Solide expérience en coordination multi‑prestataires · Forte capacité de structuration, formalisation et communication · Leadership non hiérarchique, autonomie, rigueur, assertivité · Culture du delivery prévisible et du continuous improvement · Bonne connaissance de Jira & Azure DevOps
Mission freelance
Product Owner "Innovation & Cartographie Réseau" (H/F)
Cherry Pick
Publiée le
Réseaux
12 mois
550-600 €
Paris, France
vous intégrez une équipe en mode squad légère (2 à 3 personnes) pour piloter un projet stratégique et ambitieux : la création "from scratch" d'une plateforme de cartographie réseau moderne. L’objectif est de transformer des données cartographiques complexes en un outil d'intelligence opérationnelle capable de détecter les coupures de fibre en temps réel et d'en calculer l'impact client de manière automatique. 🚀 Vos Missions : Esprit Intrapreneur & "From Scratch" En tant que Product Owner, vous n'êtes pas un simple gestionnaire de backlog, mais le véritable chef d'orchestre d'un produit naissant. 1. Discovery & Design (Cadrage du besoin) Immersion Terrain : Aller à la rencontre des métiers et des techniciens pour comprendre les réalités de l'infrastructure fibre. Collecte de Données : Identifier et consolider les sources de données (SIG, plans, chantiers) pour alimenter la plateforme. Définition du MVP : Prioriser les fonctionnalités pour sortir rapidement une première version utilisable, en évitant l'effet tunnel. 2. Delivery & Agilité (Pilotage) Gestion du Backlog : Rédaction des User Stories avec une approche technico-fonctionnelle. Itérations Courtes : Rythmer les sprints (2 à 3 semaines) pour garantir une visibilité constante au management. Qualité & Tests : S'assurer que le système d'alertes automatiques est fiable et précis. 3. Product Culture (Le rôle de "Challenger") Challenger le Métier : Savoir dire "non" aux demandes superflues pour garder un produit simple et efficace. Challenger la Tech : Discuter avec les développeurs sur les flux de données et la logique algorithmique du calcul d'impact. Vision Long Terme : Préparer l'imbrication de cet outil dans le portail principal d'Axione à horizon 12 mois. 🏢 Modalités & Environnement Localisation : Poste basé sur site ( 3 jours par semaine obligatoires ). Langue : Environnement franco-français (Anglais non requis). Process de recrutement : Court et efficace (1 seul entretien de 30 minutes). Durée : Mission de longue durée.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Product Manager Expert Data / BI (/NB) F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6391 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois