L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 220 résultats.
Mission freelance
Expert Infrastructure IT Broadcast – Supply Chain & Diffusion
SKILL EXPERT
Publiée le
CVE
Linux
NAS
6 mois
Paris, France
Contexte de la mission Un grand groupe audiovisuel public français recherche deux profils seniors pour intervenir au sein de sa direction technique en charge des infrastructures IT des systèmes broadcast de supply chain et de diffusion, couvrant les chaînes nationales, ultramarines et régionales. Ces infrastructures sont opérées depuis deux centres de diffusion soumis à de très fortes exigences de disponibilité et de continuité de service. La mission porte sur la mise en place, la gestion des évolutions et les mises à jour de l'ensemble des briques d'infrastructure (stockage, virtualisation, systèmes d'exploitation, sécurité) au service des projets broadcast de supply chain et de diffusion, dans des environnements de production audiovisuelle critiques. Objectifs et livrables Installation, configuration, exploitation, MCO et troubleshooting de l'ensemble des briques d'infrastructure en environnement de production audiovisuelle à haute disponibilité Administration de plateformes d'infrastructure multi-tiers (hyperconvergence, virtualisation, stockage, réseau, OS) Migration de systèmes critiques non réinstallables avec continuité de service garantie Installation et mise en production de nouveaux équipements de stockage, remplacement de switches SAN en environnement de production critique Administration des solutions de bastion d'administration et gestion des accès privilégiés Suivi des vulnérabilités (CVE), planification et déploiement contrôlé des correctifs de sécurité Gestion des plateformes d'hyperconvergence, sauvegarde et archivage long terme sur cartouches Contribution à la supervision des infrastructures et mise en place d'alertes sur indicateurs sensibles Rédaction et maintien de la documentation technique : DAT, procédures d'exploitation, IPAM, gestion des flux
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Mission freelance
[SCH] Expert dbt - Data Engineer ELT - 1353
ISUPPLIER
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’une initiative groupe de modernisation et standardisation des transformations de données, le client cherche un Data Engineer expérimenté dbt pour soutenir la mise en place d’une plateforme dbt (industrialisation, bonnes pratiques, pipelines robustes et scalables) dans un contexte international (anglais fluent). Mission : -Définir et déployer les best practices dbt (standards de dev → déploiement) avec le responsable technique ELT. -Contribuer à l’architecture ELT (stratégie, modèle, gouvernance d’intégration des données). -Capturer le besoin : faisabilité technique, estimation de charge, rédaction spécifications techniques. -Concevoir et développer les jobs dbt (connecteurs/implémentation), assurer déploiement, UAT, documentation. -Assurer le support technique : optimisation, configuration, MCO, audits de jobs, amélioration continue. -Piloter l’analyse de gaps et accompagner la migration des solutions existantes vers dbt. -Animer formation / transfert de connaissances et contribuer à la communication (communauté ELT, présentations). -Co-définir stratégie de logging et gestion d’événements. Profil attendu : -Expert dbt capable de définir des standards et d’industrialiser une plateforme (dev, tests, déploiement). -À l’aise pour co-construire une architecture ELT et des modèles de données (gouvernance, conventions). -Capable de faire du support/MCO dbt (optimisation perf, configuration, audit, fiabilisation). -Expérience migration/standardisation à l’échelle groupe (gap analysis, inner source, diffusion bonnes pratiques). -Capable d’estimer, rédiger des spécifications, documenter et former. -Anglais fluent (workshops, formation, communautés internationales).
Mission freelance
Data architecte / Expert Snowflake
Codezys
Publiée le
Apache Airflow
Kubernetes
Python
12 mois
Lille, Hauts-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Consultant(e) Senior Data Analyst - Luxe & Retail (GCP / BigQuery) F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
BigQuery
SQL
Neuilly-sur-Seine, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
AMOA / Business Analyst Data - H/F
K-Lagan
Publiée le
AMOA
Cloudera
Informatica
1 an
45k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , proximité et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Consultant AMOA Data (F/H) pour rejoindre l’un de nos clients des secteurs Assurances basé entre à Niort . Missions principales : Accompagner les équipes métiers dans leurs usages autour de la data Réaliser des analyses et apporter du conseil sur les sujets data Assurer le support fonctionnel auprès des utilisateurs Participer à la production des livrables fonctionnels Concrètement : Recueillir et analyser les besoins métiers Conseiller les équipes sur l’exploitation des données Participer au cadrage et aux études de faisabilité des projets data Garantir la cohérence des solutions mises en place Réaliser les recettes fonctionnelles et suivre les anomalies Produire la documentation (spécifications, modélisation de données) Assurer le suivi de la qualité et la satisfaction des utilisateurs
Mission freelance
Expert PostgreSQL (H/F) - 79
Mindquest
Publiée le
Greenplum
PostgreSQL
Programmation
6 mois
Niort, Nouvelle-Aquitaine
1. Contexte Dans le cadre d’un pic d’activité, l’équipe Data du client souhaite renforcer sa capacité de production afin de répondre efficacement aux demandes utilisateurs, priorisées et validées par le Product Owner. La mission s’inscrit dans un environnement structuré, chez un client reconnu, avec des enjeux forts autour du traitement et de l’exploitation de données à volumétrie significative. Secteur : assurance Localisation : Niort Télétravail : 3 jours/semaine (hors période d’onboarding) Démarrage : ASAP Durée : 6 mois minimum 2. Missions Au sein de l’équipe, le consultant interviendra principalement sur des sujets orientés data et bases de données : Développement et maintenance de traitements de données Conception et optimisation de requêtes SQL complexes Développement de fonctions et procédures stockées en PL/pgSQL Développement de scripts de traitement de données en Python Automatisation via scripts Shell Analyse et optimisation des performances sur des volumes de données importants Participation à l’amélioration continue des processus de traitement de données Collaboration avec le Product Owner et les équipes métiers pour répondre aux besoins exprimés
Mission freelance
Architecte data
ESENCA
Publiée le
Architecture
Collibra
Gouvernance
1 an
Lille, Hauts-de-France
Objectif global Accompagner la conception et la mise en place de l’architecture Data. Contexte Projet à dimension internationale avec des contraintes fortes de conformité et d’alignement des données aux besoins métier. Description détaillée Le/la Data Architect intégrera la plateforme HRDP (Ressources Humaines) pour : Concevoir des modèles conceptuels de données par contexte métier Identifier les événements métier par contexte Définir et formaliser les Business Terms, Business Attributes et Business Events dans Collibra Définir les Indicateurs Clés de Performance (KPI) par contexte métier Définir les règles de qualité des Business Terms Analyser la conformité des API et des Data Sets avec l’architecture data Réaliser le data lineage Rédiger le dossier d’architecture data répondant aux besoins business exprimés dans le quarterly plan Participer à la data governance de la plateforme
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Mission freelance
Chef de projet flux Data et Migration SI
NEXORIS
Publiée le
Powershell
SFTP (Secure File Transfer Protocol)
6 mois
500 €
Paris, France
Missions Notre client, un groupe bancaire, recherche un Chef de projet flux data et migration SI (H/F) afin de piloter et mettre en place avec une filiale les flux de données entre son SI et le nouvel outil de consolidation financière Groupe en mode SaaS. Le consultant devra suivre, piloter et mettre en œuvre le chantier de mise en place de flux entre l’écosystéme de notre Client et l’outil SaaS cible. Les tâches peuvent se résumer ainsi : - Pilotage et suivi de projet : Cadrage de l’adaptation des flux SFTP dans le cadre d’un changement d’outil de consolidation Collaborer avec les Architectes data et les équipes développement/intégration pour la conception des flux et des jobs Piloter le planning de migration des flux (pilot, pré-prod, prod) et les fenêtres de bascule Suivre la mise en place des NAS avec l’infogéreur - Mise en oeuvre : Ecrire / coder des scripts en PowerShell (niveau de complexité moyenne) Documenter l’architecture et les flux Documenter le fonctionnement et le processus
Offre d'emploi
Expert SRE Azure- Ingénieur Fiabilité Cloud
AVALIANCE
Publiée le
Azure
Azure Kubernetes Service (AKS)
Cloud
2 ans
40k-70k €
400-600 €
Maurepas, Île-de-France
- Rattachement hiérarchique : Responsable Cloud & Datacenter – Équipe Cloud & Datacenter Missions principales : • Fiabilité & SRE : définition des SLI/SLO/error budgets, revues de fiabilité, gestion des incidents majeurs, post-mortems blameless, plans de remédiation. • Observabilité : contribution à la plateforme monitoring (Prometheus, Grafana, Loki, Mimir, Alloy), intégration de nouveaux périmètres Azure, dashboards et alerting. • FinOps & gouvernance Cloud : suivi de la consommation MACC, analyses Azure Resource Graph (KQL), right-sizing, chasse aux ressources orphelines, recommandations d’optimisation. • Infrastructure as Code : industrialisation via Terraform, modules réutilisables, pipelines GitOPS CI/CD, revues de code et bonnes pratiques IaC. • Plateforme Kubernetes (AKS) : exploitation, patching, scaling, sécurité (RBAC, Network Policies, Azure AD integration), support aux équipes applicatives. • Data Platform : accompagnement de la migration ADF v2 vers Databricks, fiabilisation des pipelines et suivi des coûts de compute. • Automatisation & tooling : scripts Python / PowerShell / Bash, runbooks, self-healing, réduction du toil. • Sécurité & conformité : application des standards groupe, gestion des secrets (Key Vault), RBAC, Defender for Cloud, PRA/PCA. • Documentation & partage : runbooks, architecture decision records (ADR), transfert de compétences vers l’équipe et les partenaires (Accenture).
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Mission freelance
Technicien expert broadcast / support diffusion & training (systèmes vidéo)
INSYCO
Publiée le
Cisco
GLPI
Grafana
48 mois
500-600 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un technicien expert broadcast / support diffusion & training (systèmes vidéo) Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/TBR/5262 dans l'objet de votre message Notre client, premier groupe audiovisuel public français, recherche un expert en maintenance des systèmes broadcast pour assurer le support diffusion de ses chaînes et l'animation de sessions de training hebdomadaires. La prestation s'inscrit dans le cadre de la Direction de la Media Factory. Elle couvre trois axes principaux : le support technique des infrastructures de diffusion, l'organisation et l'animation de trainings pour les équipes d'exploitation, et la formation des permanents sur les systèmes techniques. Support diffusion des chaînes linéaires Vérification régulière du bon état de fonctionnement standard des équipements et systèmes audiovisuels et/ou informatiques Réalisation de l'assistance auprès des utilisateurs et escalade si nécessaire, gestion des workflows des médias si nécessaire Diagnostic et réparation des équipements en dysfonctionnement et/ou réalisation du SAV avec les fournisseurs Récolte et transmission des informations, de façon quotidienne, liées au suivi de l'activité (description des incidents, suivi de stocks, compte-rendu de l'activité, etc.) Participation à l'installation des équipements selon les consignes données et les procédures en vigueur Diagnostic des pannes et résolution des incidents de second niveau Participation aux actions de maintenance préventive et corrective Prise en charge des sauvegardes des équipements et de l'installation Support diffusion des chaînes non linéaires Vérification régulière du bon état de fonctionnement standard des équipements et systèmes audiovisuels et/ou informatiques Réalisation de l'assistance auprès des utilisateurs et escalade si nécessaire, gestion des workflows des médias si nécessaire Diagnostic et réparation des équipements en dysfonctionnement et/ou réalisation du SAV avec les fournisseurs Récolte et transmission des informations, de façon quotidienne, liées au suivi de l'activité (description des incidents, suivi de stocks, compte rendu de l'activité, etc.) Participation à l'installation des équipements selon les consignes données et les procédures en vigueur Participation aux actions de maintenance préventive et corrective Rédaction de scénarios de training Création et rédaction de scénarios mettant en situation des cas de figure pouvant survenir sur les systèmes de diffusion : pannes, contournements, erreurs, cas d'urgence, etc. Prise en compte de situations impliquant les exploitants, chefs de chaîne et techniciens support, chacun dans leurs domaines d'expertise Organisation et animation des trainings Vérification que les participants ont bien reçu l'invitation pour le jour J et le bon horaire Suivi des scénarios pour chaque collaborateur afin qu'ils ne fassent pas toujours le même Animation du training, avec transmission des consignes et suivi de son déroulement, en apportant aide, explications et méthodes à appliquer Rédaction d'un bilan à chaque fin de journée, pour faire apparaître les points bloquants, axes d'amélioration et modifications à apporter le cas échéant Formation des permanents Mise en place et réalisation de formations sur les systèmes techniques auprès des salariés permanents afin qu'ils atteignent le même niveau de connaissance Mise en pratique avec explications de procédures, méthodes de contournement, fonctionnement des systèmes ou équipements constituant l'architecture technique Planification des formations selon la demande et le besoin Technologies : MBT V4, Harmonic SpectrumX, Riedel Micron UHD, Ross Xpression, Cerebrum, ST 2110, VMware, Cisco, GLPI, Grafana
Offre d'emploi
Expert IA cybersécurité SOC sur Charenton Le Pont
EterniTech
Publiée le
Large Language Model (LLM)
RAG
SOC (Security Operation Center)
3 mois
Charenton-le-Pont, Île-de-France
Nous recherchons un expert en intelligence artificielle, capable de concevoir et développer des solutions IA spécialisées pour répondre à des besoins métiers spécifiques. Missions principales Concevoir et mettre en place des composants IA sur mesure (moteurs IA, modèles de données, automatisation de tâches métiers). Développer des solutions intégrant des technologies telles que : LLM (Large Language Models) RAG (Retrieval-Augmented Generation) Tester, valider et industrialiser (packaging) les solutions. Construire et déployer des offres de services IA “sur étagère” adaptées aux enjeux cybersécurité. Accompagner les équipes en expliquant les solutions mises en place et en structurant leur adoption. Profil recherché Minimum 5 ans d’expérience en IA / data avec un niveau senior. EXPERIENCE APPROFONDIE EN SOC SOC N2/N3 – Data & IA Dans le cadre de la sécurisation des plateformes Data & IA, la mission inclut un rôle de support avancé (N2/N3) au sein du SOC, avec les responsabilités suivantes : *Supervision et détection Assurer la surveillance des environnements Data & IA (data lakes, pipelines, modèles ML/IA) via les outils SOC (SIEM, EDR, XDR) Détecter les comportements anormaux liés aux usages de la donnée et des modèles (exfiltration, dérive, accès non autorisés) *Analyse et gestion des incidents Prendre en charge les incidents de sécurité de niveau 2/3 sur les périmètres Data & IA Réaliser les analyses approfondies (forensics, root cause analysis) en lien avec les équipes sécurité et data Piloter la remédiation et proposer des plans d’action adaptés *Sécurisation des environnements IA Identifier et traiter les vulnérabilités spécifiques aux systèmes IA/ML (modèle poisoning, data leakage, adversarial attacks) Participer à la mise en place de contrôles de sécurité sur les pipelines data et les cycles de vie des modèles (MLOps sécurisés) *Amélioration continue & use cases Développer et enrichir les règles de détection spécifiques aux usages Data & IA Contribuer à l’industrialisation des cas d’usage de détection (use cases SOC) Automatiser certaines réponses via SOAR ou scripts *Collaboration transverse Travailler en étroite collaboration avec les équipes Data, IA, DevOps et Cyber Accompagner les projets dans l’intégration des bonnes pratiques de sécurité (SecDevOps / DevSecOps appliqué à la data) *Veille & expertise Assurer une veille sur les menaces liées à l’IA et aux environnements data Apporter un rôle de référent technique sur les sujets de sécurité Data & IA au sein du SOC Expérience solide dans le domaine de la cybersécurité (connaissance des enjeux métier). Capacité à concevoir, challenger et déployer des solutions innovantes. Profil expert / référent, capable de structurer une offre et de la porter. Très bonne maîtrise de l’anglais professionnel. Informations complémentaires Démarrage : ASAP Durée : mission longue Environnement exigeant, nécessitant un profil autonome, pédagogue et orienté delivery.
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3220 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois