L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 510 résultats.
Offre d'emploi
Scrum Master / Product Owner Data F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Git
JIRA
Python
Nantes, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur Système et Réseau – IGD
Ela Technology
Publiée le
Hadoop
6 mois
40k-45k €
400-500 €
Nancy, Grand Est
I. Contexte : Nous recherchons une personne ayant de l'expérience sur la gestion de plateforme bigdata dans un écosystème Hadoop. Le SI est composé très majoritairement de composants Opensource et le périmètre IGD (Infrastructure de Gestion de la Donnée) concerne principalement les composants permettant de stocker, échanger, transporter, transformer la donnée, à la fois technique et fonctionnelle. Contexte technique : 1500 Machine virtuelle II. Missions : Votre quotidien sera partagé entre : • Support N3 : traitement des incidents de production • Projets techniques : qualification et industrialisation des briques techniques • Gestion d’obsolescence : monter en version de Hadoop, cassandra, spark, kafka, vitess • Administration MySQL • Suivi des KPIs et mise en œuvre des actions correctives
Offre d'emploi
Data Analyst Lead
SARIEL
Publiée le
Animation
Data analysis
KPI
12 mois
55k-76k €
430-580 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Data Analyst Expert (>10 ans). Objectif global : Concevoir Renforcer l'expertise ce conception data et de gouvernance des données Compétences techniques Connaissance de la grande distribution - Confirmé - Impératif Modélisation des données - Confirmé - Important Analyse de données - Confirmé - Important Conception de solutions data - Confirmé - Important Description détaillée Fiche mission – Data Analyst Lead (Prestation) Contexte de la mission Nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts.. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertiss-en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Data Analyst Lutte contre la fraude
ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python
2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Offre d'emploi
Développeur Data GCP / BI (H/F)
CELAD
Publiée le
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l'amélioration continue des pratiques et de la delivery data
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Mission freelance
Développeur Data GCP/BI (H/F)
CELAD
Publiée le
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l’amélioration continue des pratiques et de la delivery data
Offre d'emploi
Coordinateur de projet Data (Luxembourg)
EXMC
Publiée le
Gestion de projet
1 an
Luxembourg
Le consultant intègrera l’équipe Data qui a en charge la mise à disposition des données pour les différents consommateurs Data du client (BI, Data Scientists, équipes métiers, etc.). Dans ce cadre, le consultant interviendra en qualité de Coordinateur de Projet sur la gestion « end-to-end » des projets Data, depuis l’analyse et la formalisation des besoins métiers jusqu’à la livraison finale des données, en coordination avec les équipes techniques et métiers concernées. · Planifier, organiser et diriger les projets de l’initiation à la clôture. · Assurer le suivi de l’avancement des projets et la gestion des risques. · Coordonner les équipes internes et externes, veillant à une communication efficace et à la collaboration entre les parties prenantes. · Assurer la liaison entre les équipes techniques et les utilisateurs pour garantir une compréhension mutuelle des exigences et des solutions. · Collaborer avec les équipes de développement pour s’assurer que les solutions proposées sont mises en oeuvre conformément aux spécifications. · Proposer des solutions adaptées aux points bloquants identifiés et participer à leur validation. · Faciliter les réunions de travail de projet, les ateliers de travail et les sessions de revue. · Préparer et présenter des rapports d’avancement aux parties prenantes.
Offre d'emploi
Ingénieur Réseaux Sénior H/F
SEA TPI
Publiée le
50k-55k €
Marignane, Provence-Alpes-Côte d'Azur
Intervenez au sein d'une infrastructure stratégique du sud de la France, où performance technologique et continuité de service sont essentielles pour assurer le bon fonctionnement d'un site accueillant plusieurs millions de passagers par an. Dans ce contexte exigeant, nous recherchons un Ingénieur Réseaux senior disposant également de solides compétences en Systèmes, capable d'intervenir sur des environnements techniques complexes, de garantir la fiabilité des infrastructures et de contribuer à l'évolution des systèmes d'information. • Conception et évolution des architectures réseau et sécurité : analyser les besoins, proposer des solutions adaptées et faire évoluer les infrastructures existantes. • Gestion des incidents majeurs de sécurité : identifier, résoudre et documenter les incidents critiques impactant les réseaux et la sécurité. • Définition et mise en œuvre des politiques de sécurité réseau : élaborer des règles et standards garantissant la protection des infrastructures et des données. • Architecture et gestion des infrastructures LAN, Wi-Fi et SD-WAN multi-sites : assurer la performance, la disponibilité et la résilience des réseaux sur l'ensemble des sites. • Optimisation des performances et de la disponibilité réseau : analyser les flux, identifier les goulots d'étranglement et proposer des améliorations continues. • Conception et déploiement des architectures VPN site-à-site et pour utilisateurs nomades : garantir l'accès sécurisé aux ressources de l'entreprise. • Architecture et optimisation des load balancers F5 : assurer l'équilibrage de charge, la haute disponibilité et la performance des applications critiques. • Audit, conformité et durcissement des infrastructures réseau : mettre en place des contrôles et recommandations pour renforcer la sécurité et répondre aux normes en vigueur. • Intégration avec les outils de supervision et de sécurité : connecter les infrastructures réseau aux systèmes de monitoring et d'alerte pour anticiper les incidents. • Définition des standards et procédures RUN réseau et sécurité : rédiger et maintenir les bonnes pratiques opérationnelles et procédures pour l'exploitation quotidienne Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 7faopc9sbf
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre premium
Offre d'emploi
Ingénieur Système (SysOps / DevOps orienté Linux) H/F
ADONYS
Publiée le
Ansible
Prometheus
1 an
40k-50k €
450-550 €
Hauts-de-Seine, France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'un Ingénieur Système (SysOps / DevOps orienté Linux) H/F Objectifs principaux du poste Assurer le run / l’exploitation quotidienne des infrastructures serveurs (priorité initiale : 100 % run). Réduire les incidents récurrents et le volume des astreintes via amélioration de la supervision et automatisation. Maintenir et faire évoluer l’automatisation (Ansible) et les processus d’intégration/déploiement. Produire et maintenir une documentation opérationnelle claire et à jour. Vos Missions Exploitation / Run Gestion et résolution des incidents systèmes : redémarrage de services, analyse des causes, remise en production rapide (astreinte passive : 1 semaine par mois, rotation, traitement immédiat des incidents quand on est appelé). Support quotidien des services hébergés (SI métier, bases de données, solutions de métrologie/supervision, etc.). Automatisation & Configuration Maintenir et mettre à jour les playbooks Ansible (notamment migration de playbooks pour compatibilité vCenter 8 vs vCenter 7). Proposer et implémenter automatisations proactives pour réduire la charge run. Supervision & Observabilité Améliorer la supervision (Prometheus souhaité ; Zabbix existant) : meilleure visualisation, alerting proactif pour anticiper incidents. Conteneurs & Orchestration Connaissances Kubernetes : prise en charge de la mise en place et maintenance (projet kubernetes à monter, actuellement démarrage). Documentation & Transfert de connaissance Rédaction et mise à jour de runbooks, procédures et guides d’exploitation. Collaboration Travailler avec l’architecte, l’ingénieur hardware/hyperviseur et le reste de l’équipe ; faire preuve d’autonomie et proposition d’améliorations. Environnement technique (exigé / présent) OS : Majoritairement Linux (~90 %) — distributions principales : Oracle Linux et Rocky Linux ; présence ponctuelle de Red Hat, Ubuntu, Fedora, ancien CentOS. Windows Server (2016→2025, migration progressive vers versions récentes) également présent mais secondaire. Virtualisation : vCenter (migration v7 → v8), ESXi. Automatisation : Ansible (playbooks à mettre à jour). Supervision / Métrologie : Prometheus (souhaité), Zabbix (existant). Conteneurs : Kubernetes (mise en place à prévoir). Versionning / CI : Git (connaissance attendue, pas forcément expert). Stockage, réseau : stockage géré par équipe interne ; réseau pris en charge par une équipe distincte (pas de compétence réseau obligatoire pour ce poste).
Offre d'emploi
Cloud Data Engineer AWS H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Mission freelance
POT9062 - Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris
Almatek
Publiée le
Git
6 mois
Paris, France
Almatek recherche pour l'un de ses clients Un Data Engineer Sénior / Big Data / Spark / Cloudera sur Paris. Contexte de la mission Le projet HALO est un programme stratégique de digitalisation des parcours bancaires (vente en ligne, souscription, IA). La Direction Data met en place une plateforme Big Data pour alimenter les cas d’usage métiers à forte valeur ajoutée. Il s’agit d’un nouveau projet (build) avec des enjeux de performance, d’intégration IA et de montée en charge. L’environnement technique est centré sur un écosystème Hadoop/Cloudera on-premise. Missions principales • Participer à la définition de l’architecture Data en lien avec les architectes et la squad • Affiner les User Stories avec le PO/BA, concevoir et développer les pipelines de collecte et de stockage des données • Orchestrer les flux batch et temps réel (Spark batch + Spark Streaming) • Mettre en œuvre les tests unitaires et automatisés • Déployer le produit dans les différents environnements (CI/CD) • Garantir le bon fonctionnement en production : monitoring, gestion des incidents, optimisation • Accompagner l’équipe dans une logique d’amélioration continue de la qualité du code Environnement technique Catégorie Technologies Framework Big Data Hadoop Cloudera (requis) Traitement Spark, PySpark, Spark Streaming (requis) — Scala (apprécié) Messaging Kafka, Kafka Connect, Kafka Streams (apprécié) Langages SQL (requis), Scala, Java, Shell, Python Bases de données SQL : Hive, Phoenix — NoSQL : HBase, MongoDB DevOps / CI-CD Git, Jenkins, Artifactory, XL Deploy, XL Release Monitoring ELK Stack (Elasticsearch, Logstash, Kibana), Grafana Gouvernance RGPD, Data Lineage, Catalogage
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Offre premium
Mission freelance
Chef de produit senior – Système de fabrication audiovisuelle
INSYCO
Publiée le
Active Directory
Architecture
DNS
36 mois
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef de produit senior – Système de fabrication audiovisuelle . Nous étudions – prioritairement – les candidatures adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/AUD/5053 dans l’objet de votre message. La prestation porte sur le pilotage d’un système de fabrication numérique couvrant l’ensemble de la chaîne de production audiovisuelle : acquisition, stockage, montage, diffusion, archivage et interfaçage avec les systèmes éditoriaux et de diffusion. Le système couvre les sous-systèmes suivants : Acquisitions (fichiers et SDI) Serveur de stockage (acquisition, fabrication et archivage) Système de gestion de média (serveurs applicatifs Windows Server) Montage et mixage Diffusion (serveurs vidéo et automation développée en interne) Archivage Échanges et interfaçage avec le système d’échange de médias Interfaçage avec les systèmes connexes : NRCS OpenMedia, trafic système de diffusion antenne, système d’indexation textuelle des contenus vidéo pour archivage, montage, mixage et replay internet La prestation comprend : Pilotage du support d’expertise auprès des acteurs et utilisateurs des applications et systèmes Coordination, en lien avec l’architecte de la solution et le PMO, des travaux effectués par l’équipe de développement en maintenance corrective et évolutive hors projet Garantie des évolutions techniques et fonctionnelles après validation Assistance aux maîtrises d’ouvrage dans l’évaluation de l’opportunité des évolutions demandées Garantie de l’alignement entre les choix d’ergonomie proposés et les besoins des utilisateurs Pilotage des études préalables (analyse des besoins, organisation existante, objectifs à atteindre) Animation des instances accompagnant les maîtrises d’ouvrage Coordination et pilotage de la recette en lien avec l’équipe d’homologation et le leader développement Prononcé de la recette avec réserves éventuelles Organisation et prise en charge du déploiement de l’outil Participation à l’organisation des formations Rédaction d’un guide utilisateur Mise en place d’une hot line et animation d’un réseau d’utilisateurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6510 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois