Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 72 résultats.
CDI

Offre d'emploi
Data Architecte - Lyon

Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Freelance

Mission freelance
Développeur Senior Java / Big Data — Mission Paris

Publiée le
Apache Kafka
Big Data
Java

6 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un vaste programme de transformation digitale , nous accompagnons un acteur majeur du transport dans la valorisation de ses données industrielles . Au cœur du dispositif : une plateforme Big Data dédiée au stockage, à la qualification et à l’exposition des données en temps réel. 🎯 Vos missions Vous interviendrez sur deux projets stratégiques : Application de localisation en temps réel (Kafka). S ystème d’analyse des incidents des systèmes embarqués. À ce titre, vous serez amené(e) à : Maintenir et faire évoluer les composants des projets. Participer à l’industrialisation des développements autour des API Gateway et microservices ; Accompagner la transition vers le cloud (Databricks, Snowflake, AWS…) ; Mettre en place les flux de données et chaînes d’alimentation ; Développer des API , microservices et interfaces Kafka ; Modéliser les données dans l’environnement Big Data ; Participer aux rituels agiles (Daily, Sprint Review, Planning…) ; Rédiger la documentation technique et automatiser les processus de mise en production. 📅 Conditions de mission Démarrage : 17/11/2025 Rythme : 3 jours sur site / 2 jours en télétravail
CDI

Offre d'emploi
Data engineer (H/F)

Publiée le

35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance
CDI

Offre d'emploi
Product Owner data

Publiée le
Azure Data Factory
Cybersécurité
Data Lake

6 mois
Courbevoie, Île-de-France
Télétravail partiel
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Freelance
CDI
CDD

Offre d'emploi
Data Steward

Publiée le
Data governance

12 mois
Liège, Belgique
Télétravail partiel
1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.
72 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous