L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 414 résultats.
Offre d'emploi
Administrateur système et réseau H/F
PROXIEL
Publiée le
Administration réseaux
Administration système
LAN
3 ans
32k-38k €
300-350 €
Bagnols-sur-Cèze, Occitanie
Nous recherchons pour notre client situé sur Bagnols sur Cèze (30) un Administrateur système et réseau H/F. Missions : Dans le cadre du renforcement de son équipe IT, notre client, acteur majeur du secteur industriel, recherche un(e) Administrateur(trice) Systèmes & Réseaux pour intervenir sur un environnement technique exigeant et sécurisé : · Administration des serveurs (Windows / Linux) · Gestion des infrastructures réseau (LAN/WAN, VLAN, routage, Wi-Fi) · Supervision et maintien en condition opérationnelle des systèmes · Gestion des incidents niveau 2 et 3 · Mise en œuvre des politiques de sécurité (sauvegardes, antivirus, firewall, droits d’accès) · Participation aux projets d’évolution et de modernisation du SI · Rédaction de la documentation technique · Support technique aux utilisateurs Profil : Formation Bac+3 à +5 en informatique, vous détenez minimum 5 ans d’expérience. Vous avez une bonne maîtrise des réseaux LAN/WAN ainsi que sur MCS. Une expérience en secteur industriel sensible est appréciée. Avantages : Mutuelle entreprise – Prévoyance - Tickets restaurants - Prime de vacances- Télétravail - Prime de Partage de la Valeur (PPV).
Mission freelance
Expert Looker Core (BI / Big Data)
Signe +
Publiée le
Looker Studio
8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Mission freelance
Architecte Data & IA – Plateforme & Socle
VISIAN
Publiée le
Azure
Azure DevOps
Databricks
1 an
400-550 €
Île-de-France, France
L’Architecte Data & IA intervient comme référent sur les choix techniques, la cohérence des architectures et l’industrialisation des usages Data/IA. Missions principales 1. Architecture & gouvernance technique Concevoir et maintenir les architectures cibles Data & IA (MLOps, LLMOps, DataOps) Garantir la cohérence globale de la plateforme Data & IA Contribuer à la mise en œuvre d’une gouvernance unifiée des données (sécurité, traçabilité, lineage) Superviser l’intégration et l’évolution d’une plateforme Data Lakehouse (type Databricks) Participer à l’évolution de l’offre de service du socle Data & IA 2. Industrialisation IA & MLOps Structurer les pratiques MLOps / LLMOps (CI/CD, monitoring, automatisation) Accompagner les équipes dans la mise en œuvre des bonnes pratiques DataOps et ML Garantir la fiabilité des pipelines de production IA Participer à la standardisation des modèles de déploiement IA 3. Innovation & plateforme IA Préparer la plateforme pour les usages d’IA générative et agentique Concevoir des architectures d’intégration pour les modèles LLM (internes et externes) Développer des approches AI by Design (conformité, sécurité, gouvernance) Contribuer aux initiatives d’innovation (observabilité IA, optimisation des coûts, temps réel) 4. Accompagnement & montée en compétences Encadrer les équipes DataOps et MLOps Diffuser les bonnes pratiques d’architecture et d’industrialisation Accompagner la montée en maturité sur les outils Data & IA Travailler en collaboration avec les équipes Data et Delivery Livrables attendus Architecture cible Data & IA unifiée Framework MLOps / LLMOps industrialisé (CI/CD, observabilité, MLFlow…) Guide de bonnes pratiques DataOps Tableau de bord de suivi de maturité IA / ML Recommandations d’évolution de la gouvernance Data & IA
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Offre d'emploi
Data Solution Architect
LEVUP
Publiée le
Azure
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
L’architecte de solutions Data guide les activités et les livrables d’analyse, de conception et techniques tout au long d’un projet. Il définit l’architecture de la solution en tenant compte des normes existantes et des exigences du système. Il veille à proposer une solution technique conforme aux besoins du client ainsi qu’à la vision de l’architecture d’entreprise cible. L’architecte de solutions Data fournit au chef de projet toutes les informations nécessaires concernant les activités d’analyse, de conception et de développement, ainsi que sur les enjeux architecturaux, techniques et opérationnels. Il est responsable de bout en bout de la définition et de la mise en œuvre de la solution, et veille à trouver le bon compromis entre les différentes exigences (meilleure solution possible). Créer et maintenir l’architecture de la solution via le document d’architecture de solution (SAD) et obtenir sa validation par le comité d’architecture (Architecture Review Board) Identifier les technologies qui seront utilisées pour le projet en collaboration avec les architectes applicatifs et d’entreprise Recommander les méthodologies de développement, frameworks et règles de codage en tenant compte des standards d’architecture et des besoins métier (fonctionnels et non fonctionnels), et en assurer l’application Fournir la conception globale et la structure de l’application S’assurer que la solution finale respecte l’architecture définie Identifier les tâches d’ingénierie logicielle pour le chef de projet Accompagner et guider les autres membres techniques de l’équipe (développeurs et concepteurs) et les aider sur les tâches complexes Assister le chef de projet dans l’estimation des coûts et des bénéfices du projet, notamment sur les aspects techniques Collaborer avec les équipes de test pour identifier les besoins en infrastructure et en support Veiller à ce que les décisions techniques soient prises et documentées Maximiser la réutilisation des actifs existants et des bonnes pratiques dans le cadre du projet
Offre d'emploi
Alternance - Chef de Projet Informatique (F/H) (H/F)
█ █ █ █ █ █ █
Publiée le
Rouen, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Mission freelance
Ingénieur réseau/cyber spécialisé Fortinet(F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Cybersécurité
Fortinet
Réseaux
12 mois
550-750 €
Toulouse, Occitanie
Mission dans le secteur des télécommunications Nous recherchons un ingénieur réseau/cyber spécialisé Fortinet, avec une forte dimension intégration et automatisation, capable de construire des solutions standardisées dans un environnement Agile et international. Contexte : Le client développe des produits de cybersécurité standardisés basés sur l’écosystème Fortinet (notamment FortiGate, FortiManager, FortiAnalyzer). L’objectif n’est pas de faire du projet spécifique client, mais de : - créer des solutions “industrialisées” - réutilisables par les différentes BU - facilement déployables à grande échelle (logique de “productification”) Environnement Technique & Fonctionnel : Focus fort sur FortiManager (centralisation / automatisation). Intégration dans des pipelines CI/CD. Logique d’automatisation et standardisation : templates de configuration (Jinja), gestion de configuration, contrôle & cohérence des déploiements. Enjeu principal : Construire un système : standardisé, robuste, réutilisable, scalable, MAIS PAS exploitation, ni maintenance, ni run. Profil attendu : Exp : 5 -10 ans Capacité : comprendre des besoins métier, construire une solution technique standardisée, intégrer des outils dans un écosystème industrialisé
Mission freelance
Chef de projet CRM mobile - omnicanal (push notifications / cycle de vie)
INSYCO
Publiée le
Adobe Campaign
Confluence
Data Lake
48 mois
400-500 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Chef de projet CRM mobile – omnicanal (push notifications / cycle de vie) Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/CRM/5239 dans l'objet de votre message Contexte de la prestation La direction numérique du client pilote des projets transverses en lien avec les équipes data, technique, produit et les éditeurs de contenus et de services. Dans ce cadre, la direction de la croissance des offres souhaite être accompagnée par une prestation de gestion de projet fonctionnel CRM mobile, couvrant le cadrage et la mise en place des campagnes, depuis l'expression des besoins jusqu'à la recette, la mise en production et le suivi des performances, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité. Missions principales Gestion de projets CRM omnicanaux en coordination avec les équipes CRM, produit, data, technique et RGPD, du cadrage à la recette jusqu'à la mise en œuvre Exemples de projets : déploiement ou refonte de communications automatisées (cycle de vie post-installation d'application ou de réactivation) dans l'outil de gestion de notifications, déploiement de la personnalisation dans les push notifications, campagnes de collecte pour optimiser le taux d'opt-in, AB tests pour optimiser les performances, mise en place de dashboards automatisés basés sur les données issues du datalake du client Recettes liées aux parcours CRM sur applications mobiles (de l'inscription post-installation au paramétrage des alertes, à la bonne réception des alertes, à leur suppression et personnalisation) Vérification de la qualité des données liées aux plans de marquage, remontées des performances dans les outils, visites et outil de web analytics Analyses récurrentes des performances des campagnes et analyses ad hoc (ex : impact pression, corrélations…) dans le module analytics de l'outil de gestion des notifications, dans l'outil de web analytics, ainsi que via des rapports Power BI existants et de futurs à déployer Paramétrage et optimisation des communications cycle de vie automatisées avec une vision omnicanale Back-up sur la gestion opérationnelle dans l'outil de gestion des notifications mobiles pour les campagnes manuelles : paramétrages, planification, plan d'animation relationnelle, recommandations d'optimisation et analyses
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance
VISIAN
Publiée le
Architecture
Data management
3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
Offre d'emploi
Développeur Full Stack H/F
ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse
6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Offre d'emploi
Ingénieur système H/F
FED SAS
Publiée le
50k-55k €
Gonesse, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Arnouville, un Ingénieur système et support applicatif H/F dans le cadre d'un CDI. Rattaché au Responsable Support, rendre chaque milliseconde d'expérience client parfaite. Sur notre site, chaque instant compte et vous serez le héros qui garantit que tout fonctionne, vite et bien. Vos défis du quotidien : * Maintenir une plateforme stable et scalable * Décrypter et résoudre des incidents complexes sur notre architecture modulaire * Piloter l'observabilité : logs, métriques, dashboards et alerting * Optimiser les flux e-procurement (Punchout, intégrations B2B) * Industrialiser les processus : scripts, automatisation, runbook et post mortem * Faire évoluer constamment les performances du site e-commerce Vos super-pouvoirs : * Maîtrise du support Niveau 3 : analyse poussée, RCA, debugging avancé * SQL affûté : optimisation, tuning et analyse de volumétrie * Shell : automatisation et scripts d'investigation * Culture web & architecture applicative * Communication limpide avec des équipes réparties dans plusieurs pays Ce poste est pour vous si… * Vous adorez comprendre les rouages d'un système complexe * Vous aimez le run intelligent et l'amélioration continue * Vous voulez contribuer à la fiabilité d'un site e-commerce européen * ous aimez collaborer avec des devs, de la data, du réseau et du produit Langue : Anglais courant indispensable
Offre d'emploi
Data Modelisation sur Paris
EterniTech
Publiée le
BigQuery
Merise
3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Offre d'emploi
Data Governance Lead
Gentis Recruitment SAS
Publiée le
Data Mesh
6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
Offre d'emploi
Data Ingénieur - spécialisé ODM / IA
VISIAN
Publiée le
IA
1 an
Nantes, Pays de la Loire
Contexte Intégration au sein de l'IA Factory en qualité de Data Ingénieur spécialisé ODM, avec pour objectif de renforcer les capacités de modélisation et d'automatisation des règles métier. Dans le cadre de l'accélération de l'intelligence artificielle au sein de la banque commerciale en France d'une grande banque internationale. Missions Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée. Responsable de la mise en œuvre du pipeline d’ingestion des données brutes (Data Lake ou autre). Assurer l'industrialisation, la supervision et l'intégration des solutions ou des données en garantissant l'engagement de service de l'environnement de production. Rédaction et formalisation des règles métier. Test, recette et validation des règles métier développées. Maintenance et évolution des règles au sein des outils de Rule Designer et Décision Center. Analyse des besoins fonctionnels et modélisation des processus décisionnels. Assistance au PO proxy (aide pour planifier les ateliers, rédaction de certains documents projets…). Animation et structuration des ateliers de travail, rédaction des comptes rendus et livrables associés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6414 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois