Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 968 résultats.
Freelance

Mission freelance
Architecte Data & IA

VISIAN
Publiée le
Azure
Databricks

1 an
400-550 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation de sa plateforme Data & Intelligence Artificielle, un grand groupe du secteur assurance / services financiers recherche un Architecte Data & IA Senior afin d’accompagner la transformation de son socle technologique vers une plateforme unifiée, gouvernée et prête pour les usages IA avancés. L’objectif est de renforcer les fondations techniques permettant : L’industrialisation rapide des cas d’usage IA / Machine Learning La cohérence des environnements MLOps / LLMOps La montée en maturité des équipes DataOps, Delivery et Engineering L’intégration future de solutions Agentic AI Missions principalesArchitecture & Gouvernance Technique Définir les architectures cibles Data & IA pour les usages analytiques, ML et GenAI Faire évoluer l’offre de services de la plateforme Data & IA Superviser la mise en place d’un catalogue de données unifié (gouvernance, sécurité, lineage, partage, FinOps) Structurer le cadre d’architecture : sécurité, traçabilité, observabilité, conformité Garantir la cohérence technique entre les environnements Data, IA et systèmes métiers Accompagnement des équipes Encadrer les équipes DataOps / MLOps sur les bonnes pratiques CI/CD, automatisation et monitoring Accompagner la montée en compétence sur les technologies cloud & data platform Collaborer avec les équipes Delivery pour fiabiliser les pipelines de production Participer au transfert de connaissances et à la documentation des standards Innovation & Modernisation Préparer la plateforme à l’exposition de Data Products fédérés Définir une approche AI by Design intégrant conformité et gouvernance Concevoir les architectures d’intégration de LLM internes ou hybrides Piloter des initiatives autour de : IA Observability AI FinOps / Cost Control Temps réel / streaming data Automatisation intelligente
Offre premium
Freelance
CDI
CDD

Offre d'emploi
QA Data confirmé (Databricks / Azure)

VADEMI
Publiée le
Azure
Databricks

3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
Freelance

Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)

Freelance.com
Publiée le
Big Data

5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
Freelance

Mission freelance
Tech Lead Data & BI (Snowflake / dbt / Power BI)

EMGS GROUP
Publiée le
Data modelling
DBT
Microsoft Power BI

6 mois
500-600 €
Paris, France
ans le cadre du renforcement d’une équipe data, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de solutions data et de visualisation. Missions : Pilotage technique des projets data et BI Conception et mise en œuvre de modèles de données et datamarts Développement et structuration de projets dbt (modèles, tests, documentation) Mise en place de pipelines industrialisés (orchestration, CI/CD, contrôles qualité) Définition des standards et bonnes pratiques Power BI (templates, performance, gouvernance) Construction et optimisation des modèles sémantiques et des reportings Accompagnement et montée en compétences des équipes Contribution au cadrage technique des nouvelles initiatives Livrables attendus : Modèles de données Snowflake robustes et documentés Pipelines data industrialisés et sécurisés Modèles sémantiques et rapports Power BI performants Standards et guides de bonnes pratiques (connexion, gouvernance, templates)
Freelance

Mission freelance
Data Engineer / DevOps Kafka Senior

Deodis
Publiée le
Kubernetes

1 an
500 €
Île-de-France, France
Rejoignez une équipe au cœur de la transformation technologique en tant que Data Engineer / DevOps Kafka Senior, où vous interviendrez sur la conception, l’exploitation et l’automatisation de plateformes Kafka industrielles déployées en environnements On-Premise et cloud. Vous serez impliqué dans l’administration avancée de clusters, le développement de solutions “Kafka as Code”, ainsi que dans la mise en place de pipelines CI/CD et d’outils d’automatisation (Python, Terraform, Ansible). Vous contribuerez également au maintien en conditions opérationnelles d’offres existantes, à leur évolution progressive, et participerez aux dispositifs de support et d’astreinte, tout en améliorant en continu la fiabilité, la supervision et l’industrialisation des systèmes dans des environnements conteneurisés (Docker, Kubernetes).
CDI

Offre d'emploi
Data Engineer Cloud H/F

FED SAS
Publiée le

55k-65k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
CDI

Offre d'emploi
Ingénieur Systèmes et Réseaux - F/H

Experis France
Publiée le

40k-47k €
Orléans, Centre-Val de Loire
Contexte Nous recrutons un Ingénieur Systèmes et Réseaux - F/H pour intervenir en mission chez l'un de nos clients du secteur mutualiste, sur un site basé à proximité de Orléans. Vous intégrez l'équipe Systèmes Windows, rattaché au Responsable Systèmes, avec une mission mixte RUN/BUILD contribuant à la maintenance et à l'évolution du Système d'Information. Vous êtes garant de la disponibilité, de la performance et de la continuité des infrastructures systèmes Windows, tout en participant activement aux projets d'évolution et d'industrialisation. Vos missions Maintien en conditions opérationnelles (RUN) Assurer la gestion des demandes, des incidents et le maintien en conditions opérationnelles Garantir la continuité de service, la disponibilité et la performance des infrastructures Windows Superviser et monitorer les environnements en production Évolution et industrialisation (BUILD) Participer aux projets d'évolution, de renouvellement et d'industrialisation des infrastructures Contribuer à l'automatisation des tâches d'administration via PowerShell Mettre en œuvre les nouvelles solutions et assurer leur intégration dans l'environnement existant Documentation et bonnes pratiques Rédiger et maintenir à jour la documentation technique et d'exploitation Appliquer et garantir les normes et standards du service Contribuer à l'amélioration continue des processus et procédures
Freelance

Mission freelance
Ingénieur Réseau & Sécurité (H/F)

Freelance.com
Publiée le
Azure
BGP (Border Gateway Protocol)
Check Point

1 an
400-440 €
Bordeaux, Nouvelle-Aquitaine
Rejoignez une équipe de plus de 600 passionné(e)s de la Tech engagée dans le développement de plateformes B2B et B2C à forte volumétrie. Dans le cadre du renforcement du pôle Infrastructure & Production , nous recherchons un(e) Ingénieur(e) Réseau & Sécurité expérimenté(e) pour intervenir sur des environnements critiques mêlant cloud, datacenter et solutions de cybersécurité avancées. Vous jouerez un rôle clé dans la performance, la résilience et la sécurité des infrastructures réseau. Vos missions Administrer, superviser et faire évoluer les infrastructures réseau (LAN / Wi-Fi) (Cisco Catalyst, Meraki, ACI, NCS) Configurer et optimiser les protocoles réseau : BGP, MP-BGP EVPN, MPLS, VXLAN, OSPF Déployer et maintenir les solutions de sécurité : WAF (Cloudflare, F5, Citrix), Firewalls Checkpoint (dont Maestro) Mettre en œuvre des solutions SSE (Cato Networks) Exploiter des environnements hybrides intégrant Microsoft Azure Superviser via Zabbix et Grafana Diagnostiquer et résoudre des incidents complexes (tcpdump, Wireshark…) Rédiger la documentation technique et les procédures Gérer les opérations datacenter (cross-connect, gestes de proximité) Automatiser les tâches via Python / Bash et IaC avec Terraform Administrer les services réseau : DNS, DHCP, GSLB / Load Balancing
Freelance

Mission freelance
Data engineer analytics H/F - Tarare (69) ou St Paul Trois Châteaux (26)

LeHibou
Publiée le
Microsoft Fabric
Snowflake

6 mois
450-550 €
Tarare, Auvergne-Rhône-Alpes
Notre client dans le secteur Industrie recherche un Data engineer analytics H/F Descriptif de la mission: Dans le cadre des objectifs de la Direction de la Transformation Digitale et de la Direction des Systèmes d’Information, le Data Engineer Analytics a pour mission de concevoir, développer, industrialiser et maintenir les solutions data du SI, basées principalement sur Microsoft Fabric et Azure Integration Services . Il contribue à garantir la qualité , la fiabilité , la performance , la sécurité et la maîtrise des coûts des traitements et plateformes analytiques. Missions : Développement & Maintenance de la plateforme analytique · Concevoir, développer et maintenir les flux d’intégration de données entre les systèmes internes et externes. · Concevoir, développer et maintenir les dashboards groupes. · Accompagner les métiers sur les bonnes pratiques et l’utilisation de nos outils de Dataviz et les données mises à disposition. · Assurer la disponibilité, la performance et la sécurité des services analytiques. · Participer à la définition et à la mise en œuvre des standards de développement et d’intégration. · Garantir la qualité des développements en respectant les bonnes pratiques Analytics, et les normes de sécurité. Support aux projets & coordination · Intervenir comme référent technique auprès des projets nécessitant des ressources analytiques. · Accompagner les équipes dans la conception, l’implémentation et l’industrialisation des flux. · Prendre en charge le maintien en condition opérationnel sur le périmètre analytique. Amélioration continue & innovation · Proposer des optimisations pour renforcer la robustesse, la performance et la maintenabilité des solutions. · Contribuer à la veille technologique sur les outils et services analytiques (Microsoft Fabric, ingestion, qualité, gouvernance…). · Participer à la démarche Green IT en optimisant les ressources cloud et en appliquant les bonnes pratiques FinOps. Documentation & qualité · Documenter les flux, pipelines, architectures, dashboard et bonnes pratiques techniques. · Contribuer à la mise à jour du référentiel documentaire. · Participer aux audits internes pour garantir la qualité, la sécurité et la conformité des développements. Indicateurs de performance · Qualité et fiabilité des pipelines (taux de succès, temps de traitement, disponibilité). · Respect des délais et de la charge prévue dans les projets. · Qualité des livrables : conformité, maintenabilité, documentation. · Taux d’incidents et rapidité de résolution. · Satisfaction des équipes projets et métiers.
CDI

Offre d'emploi
Data Engineer Databricks

ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark

Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
CDI

Offre d'emploi
Ingénieur Système et Réseau N3 - F/H

Experis France
Publiée le

45k-55k €
Mer, Centre-Val de Loire
Contexte Nous recrutons un Ingénieur Système N3 - F/H pour intervenir en mission chez l'un de nos clients du secteur bancaire, sur un périmètre d'infrastructure à forts enjeux. Vous intégrez une DSI structurée et exigeante, avec une mission à dominante build vous permettant de contribuer activement à l'évolution et à la modernisation des infrastructures systèmes, tout en assurant un rôle de référent technique sur les incidents de niveau N3. Vos missions Administration et exploitation systèmes Administrer et maintenir en conditions opérationnelles les infrastructures systèmes Assurer le suivi et la résolution des incidents de niveau 3 Participer aux activités run et garantir la continuité de service Projets et évolutions Participer activement aux projets d'évolution et de modernisation des infrastructures Contribuer à la conception et à la mise en œuvre des nouvelles solutions systèmes Réaliser les changements et mises en production dans le respect des procédures Documentation et processus Rédiger et maintenir à jour les procédures et processus d'exploitation Participer aux réunions de suivi projet et aux instances techniques Contribuer à l'amélioration continue des pratiques et standards du service
Freelance

Mission freelance
Data Engineer – Tracking & Analytics

Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio

7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Freelance

Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows

CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)

3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Freelance

Mission freelance
Data Platform Engineer (Elastic / OpenSearch / Iceberg / Kubernetes)

EBMC
Publiée le
Elasticsearch

3 mois
400-480 €
Paris, France
Nous recherchons un Data Platform Engineer spécialisé dans les technologies Search , Data Lakehouse et Cloud Native . Le candidat contribuera à la conception, la mise en place et l’industrialisation de solutions basées sur ElasticSearch / OpenSearch , Apache Iceberg et des environnements Kubernetes . Le rôle comporte une forte dimension POC , incluant l’évaluation de nouvelles approches techniques, l’intégration de composants dans des architectures distribuées, ainsi que l’automatisation du provisioning via Ansible . Le poste nécessite une réelle curiosité technique, une capacité à apprendre rapidement et une motivation à travailler sur des sujets innovants et structurants pour la plateforme Data de l’entreprise.
Freelance

Mission freelance
Data Engineer AI / LLM Snowflake (H/F) – Expérimenté H/F

Comet
Publiée le
Agent IA
Python
RAG

12 mois
400-550 €
Île-de-France, France
Contexte Au sein de la division Global Beauty Tech, l’équipe Data & Analytics Corporate IT Global de L'Oréal pilote des plateformes data stratégiques à l’échelle mondiale (RH, Finance, Campus). L’environnement technologique repose sur : Snowflake (plateforme analytique centrale) Google Cloud Platform (GCP) (BigQuery, Cloud Composer, GCS) Dans le cadre de son ambition 2026, l’équipe accélère fortement sur l’ IA générative et agentique , notamment via Snowflake Cortex et l’écosystème Snowflake Intelligence. 👉 Objectif : passer de PoC prometteurs à des solutions industrialisées, robustes et scalables . Votre mission Vous interviendrez sur un projet stratégique : “Talk to My HR Data” – une plateforme permettant aux métiers RH d’interroger leurs données en langage naturel via des agents IA. Vos responsabilités : 🏗️ Conception du framework IA Définir une architecture agentique sur Snowflake (LLM, orchestration, mémoire) Concevoir des patterns réutilisables (agents, tools, prompts) Formaliser les bonnes pratiques et standards 🤖 Développement d’agents IA Développer des agents Cortex pour des cas RH complexes Implémenter des solutions RAG et outils métiers (SQL sémantique, agrégations) Optimiser la fiabilité (ReAct, Chain-of-Thought) 🔌 Mise en place de serveurs MCP Concevoir des serveurs Model Context Protocol Exposer les données Snowflake aux LLMs Garantir sécurité & conformité (RGPD, données RH) 💬 Développement d’interfaces Créer des apps conversationnelles avec Streamlit in Snowflake Intégrer les agents dans des dashboards analytiques Améliorer l’expérience utilisateur (historique, feedback, erreurs) 📊 Gouvernance & performance IA Monitorer les usages LLM (coûts, latence, qualité) Optimiser les performances et coûts GenAI Mesurer le ROI des cas d’usage
5968 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous