L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 229 résultats.
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Mission freelance
Expert design système Data viz (H/F) - IDF + Remote
Mindquest
Publiée le
Azure
Microsoft Power BI
3 mois
330-490 €
Roissy-en-France, Île-de-France
Mission Cadrage & compréhension des besoins Recueillir, analyser et qualifier les besoins métiers et enjeux de pilotage Identifier les indicateurs clés (KPI) nécessaires à la prise de décision Formaliser la définition fonctionnelle et construire un dictionnaire de KPI Conception & Design DataViz Traduire les besoins en concepts de visualisation et design Définir : Scénarisation des KPI Hiérarchisation visuelle (typographie, graphiques…) Filtres interactifs et expériences utilisateur Concevoir le “storytelling” des dashboards (messages clés, parcours utilisateur) Produire maquettes, reportings et outils de pilotage Design System & standardisation Faire évoluer, enrichir et standardiser le Design System DataViz Structurer : Les éléments de design (couleurs, pictogrammes, composants visuels…) Les composants Power BI (templates, visuels, dashboards) Maintenir et piloter les bibliothèques de design (Figma & Power BI) Data & automatisation Participer à la préparation des données Mettre en place des logiques d’automatisation des reportings Collaborer avec les équipes data (Azure, Databricks…) Pilotage & delivery Piloter les projets de conception et garantir la qualité des livrables Rédiger les cahiers des charges et spécifications fonctionnelles / techniques Assurer le suivi des projets (planning, risques, priorisation…) Être garant de la satisfaction métier
Offre d'emploi
Data Analyst Confirmé F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
SQL
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Architecte DATA Sénior
KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata
18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Mission freelance
Expert DevSecOps habilitable (FR)
SKILL EXPERT
Publiée le
Ansible
API
Automatisation
6 mois
550-580 €
Paris, France
Mission : La forge du client propose des services centralisés permettant la gestion du code, l’automatisation CI/CD, la mise à disposition de composants techniques, la gestion du déploiement vers l’hébergement cloud (OpenStack), ainsi que l’accompagnement des projets applicatifs. L’objectif de la mission est d’assurer l’exploitation, le maintien en condition opérationnelle (MCO), l’évolution, la documentation et le support de l’ensemble des services Forge, ainsi que la livraison régulière de composants, modèles et automatisations. Livrables Code (scripts, automatisations, composants techniques). Documentation technique associée. Modèles et templates réutilisables.
Offre d'emploi
Expert Automation / RPA / Data (H/F)
OMICRONE
Publiée le
Automatisation
Data analysis
Python
2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Offre d'emploi
Architecte Data Senior AWS / Databricks (H/F)
SMARTPOINT
Publiée le
Architecture
AWS Cloud
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre de projets data à forte valeur ajoutée, nous recherchons un Architecte Data Senior capable de concevoir, implémenter et optimiser des architectures data modernes sur AWS et Databricks . Vous accompagnerez les équipes techniques et métiers dans la mise en place de plateformes data scalables , l’industrialisation des pipelines de données et le développement de cas d’usage avancés en intelligence artificielle et IA générative . Conception d’architectures data Définir et concevoir des architectures data cloud modernes (Data Lake, Lakehouse, Data Platform). Concevoir des architectures scalables sur AWS et Databricks . Définir les standards techniques et bonnes pratiques data . Réaliser des études d’architecture et cadrages techniques . Développement et industrialisation Concevoir et développer des pipelines de données et pipelines d’ingestion . Mettre en œuvre des architectures de traitement de données performantes. Développer des solutions de traitement et d’analyse de données à grande échelle. Contribuer à l’industrialisation des projets via MLOps et DevOps . IA et innovation Concevoir et mettre en œuvre des cas d’usage IA avancés , notamment en IA Générative . Participer au cadrage de cas d’usage data et IA innovants . Implémenter des solutions utilisant LLM, Transformers, RAG ou fine-tuning . Développer des Proof of Concept (PoC) et accompagner leur industrialisation. Expertise technique et accompagnement Réaliser des revues et audits de code . Accompagner les équipes data et projets dans les choix technologiques. Participer à la résolution d’incidents complexes et au support expert . Contribuer à l’amélioration continue des socles techniques et architectures data .
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Expert·e Cybersécurité – Détection & Réponse (SOC/CERT) H/F
TOHTEM IT
Publiée le
55k-65k €
Courbevoie, Île-de-France
Tu rejoins une équipe d’expert·e·s en cybersécurité spécialisée dans les activités de détection et de réponse managées. L’objectif : garantir la cohérence, la performance et la valeur des dispositifs de sécurité mis en place. Ta mission consiste à évaluer, coordonner et renforcer les capacités de détection et de réponse dans des environnements exigeants, tout en contribuant à faire progresser la maturité globale des activités SOC et CERT. Tes missions Évaluation et amélioration continue des dispositifs SOC/CERT Tu analyses la couverture de détection et proposes des recommandations concrètes pour améliorer la collecte, les cas d’usage et la visibilité globale. Tu produis des livrables d’analyse et de stratégie (cartographies, plans d’évolution, matrices MITRE ATT&CK) utilisés comme références d’audit et d’optimisation. Tu suis la mise en œuvre des actions correctives et des plans d’amélioration. Coordination et animation transverse Tu interviens comme coordinateur·rice cybersécurité pour renforcer la collaboration et la réactivité entre les équipes (détection, réponse, vulnérabilités, identités, etc.). Tu facilites les escalades et assures le suivi des plans d’action, avec une bonne traçabilité des décisions. Tu traduis les besoins métiers en exigences techniques compréhensibles par les équipes SOC, IT et sécurité. Tu fais le lien entre les équipes opérationnelles et les fonctions de gouvernance pour améliorer en continu la posture de sécurité. Tu contribues à la résilience globale, notamment sur les sujets d’identité, d’accès, de vulnérabilités et de gestion de crise. Synergie, innovation et développement des offres Tu participes à la construction de méthodes et frameworks reliant les activités de vulnérabilité, threat intelligence, investigation, détection et réponse. Tu es force de proposition en atelier et garant·e de la qualité des livrables. Tu contribues au développement des offres : positionnement, tarification, communication interne et appui aux équipes commerciales.
Mission freelance
Développeur Data ETL
Lùkla
Publiée le
ETL (Extract-transform-load)
2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Mission freelance
POT9104 - Un Senior Data Engineer Talend sur Vélizy-Villacoublay.
Almatek
Publiée le
SQL
6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients Un Senior Data Engineer Talend sur Vélizy-Villacoublay. Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Environnement Technique Data Engineering & Architecture • ETL : Talend, SSIS, Azure Data Factory (ADF) • Bases de données & requêtage : Microsoft SQL Server, SQL avancé • Modélisation : Data Warehouses, Data Marts, Data Cubes • Transformation data : dbt • Architecture moderne : Medallion Architecture • Moteurs distribués : Trino (ou équivalent) • Stockage objet : MinIO (ou équivalent) • Data Lake & ingestion via APIs, fichiers, flux batch Microsoft Stack • SQL Server Database Engine • SSIS, SSAS • Power BI Reporting Services (PBIRS) • Langages : SQL, DAX, MDX • Optimisation des performances et tuning avancé Cloud & Bonus • Nice to have : GCP (BigQuery, GCS, Dataproc) CI/CD & Industrialisation • Pipelines CI/CD automatisés • Azure DevOps, GitLab • Déploiement, intégration continue, tests automatisés • Qualité de code, orchestration, build & release automation
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Offre d'emploi
Expert Cybersécurité – Gouvernance, Risques & Conformité (GRC) H/F
CONSORT GROUP
Publiée le
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Expert Cybersécurité – Gouvernance, Risques & Conformité (GRC) H/F C’est votre mission Vous êtes passionné·e par la cybersécurité, la gestion des risques et la gouvernance SSI ? Ce poste est fait pour vous. En tant qu’ Expert·e Cybersécurité – Gouvernance & Intégration Sécurité , vous êtes responsable de l’intégration de la sécurité et du pilotage méthodologique SSI au sein de notre écosystème. Côté build : Intégrer la sécurité dans les projets du SI et structurer les livrables cyber Réaliser des analyses de risques (EBIOS RM / ISO 27005) Définir et formaliser les exigences de sécurité adaptées aux projets Produire et maintenir les dossiers de sécurité Rédiger des avis de sécurité pour les instances projets Piloter et améliorer le processus d’intégration sécurité (ISP) Garantir la cohérence entre risques identifiés, exigences et recommandations Côté run : Maintenir la gouvernance SSI et assurer la robustesse documentaire Mettre à jour les référentiels SSI (politiques, directives, procédures, modes opératoires) Contribuer au plan de contrôle permanent SSI Participer au maintien en condition opérationnelle et aux tests du Plan de Secours Informatique (PSI) Rédiger des comptes rendus et synthèses à destination des instances de gouvernance Veiller au respect des standards internes et des délais Contribuer à l’amélioration continue des processus internes C’est votre parcours Vous avez au moins 5 ans d’expérience en cybersécurité, gouvernance SSI ou gestion des risques dans des environnements exigeants. Vous aimez structurer, formaliser et sécuriser les projets SI sans jamais perdre de vue les enjeux business. Vous cherchez un cadre où vos recommandations ont un réel impact et où la rigueur méthodologique rime avec collaboration. C’est votre expertise : ISO 27001 / ISO 27005 EBIOS RM Pilotage de processus d’intégration sécurité Architecture sécurité Politiques et référentiels SSI Contrôle permanent SSI Sécurité Cloud (Azure / AWS) Sécurité applicative et réseau Certification CISM (appréciée) C’est votre manière de faire équipe : Autonomie et sens des responsabilités Leadership naturel et capacité à challenger avec pédagogie Excellente qualité rédactionnelle Communication claire et structurée Rigueur méthodologique Esprit d’amélioration continue C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 65 K€ (selon expérience) brut annuel Famille métier : Cybersécurité / Gouvernance SSI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Consultant DATA (Talend DI / ESB / GCP)
adbi
Publiée le
BigQuery
Enterprise Service Bus (ESB)
Google Cloud Platform (GCP)
45k-57k €
Île-de-France, France
Dans le cadre de ses activités DATA, la DSI du Groupe recherche un profil consultant Data pour l'aider à répondre aux différentes sollicitations de ses métiers. Nous attendons ici une expérience significative en Big Query / Data Studio (ex Looker Studio) / Talend. Objectifs et livrables Au sein des équipes Echanges, Data Architecture et Datavisualisation du pôle Data de la DSI du Groupe, les tâches de la mission sont : - Développer des flux de données Talend (DI/ESB) - Participer à la migration Talend vers la version supérieure - Développer des IHM en Java - Concevoir et mettre en oeuvre le modèle de données décisionnel à partir des données applicatives remontées dans BigQuery - Préparer et transformer les données dans BigQuery - Concevoir et mettre à disposition des Objets Métier - Définir et mettre en oeuvre des règles de Data Quality - Développer des rapports Google Data Studio (ex Looker Studio) - Rédiger des spécifications techniques - Participer à la recette technique et fonctionnelle - Assurer une maintenance et un support des solutions mises en oeuvre
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché 2026: rebond ou stagnation ?
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
3229 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois