Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Votre recherche renvoie 73 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
AWS Cloud
Dataiku
Python

12 mois
Paris, France
Mon client, une banque basée à Paris, recrute deux Ingénieurs Data pour renforcer ses capacités de lutte contre la criminalité financière, notamment dans le cadre de la surveillance des transactions. Ce rôle consiste à construire et optimiser des pipelines de données permettant la détection en temps réel d’activités suspectes, afin d’aider l’établissement à répondre aux exigences réglementaires et à se protéger contre le blanchiment d’argent et la fraude..
Freelance
CDI

Offre d'emploi
Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation

Publiée le
Apache Airflow
Audit
AWS Cloud

12 mois
Malakoff, Île-de-France
Télétravail partiel
Contexte & Objectif Dans le cadre d’un projet Data déjà développé, le client souhaite faire appel à un expert capable de réaliser un audit technique et fonctionnel. En tant que Technico-Fonctionnel Full Stack / Data engineer (Snowflake) / Audit & Estimation vos principales missions seront les suivantes : Réaliser un audit complet d’un projet existant. Vérifier la compatibilité technique avec Snowflake et les environnements associés. Analyser et traduire le code back/front . Produire des recommandations concrètes : faisabilité, coûts, charge, risques. Intervenir en interface technico-fonctionnelle entre équipes techniques et métiers.
Freelance

Mission freelance
Ingénieur Data - Nantes

Publiée le
Azure
Azure Data Factory
Cloud

12 mois
420-450 €
Loire-Atlantique, France
Télétravail partiel
Métier et Fonction Data Management Ingénieur Data Spécialités technologiques BI (Business Intelligence) Type de prestation Assistance Technique avec facturation au taux journalier Compétences requises Technologies et Outils : Azure Data Factory, Power BI Soft skills : Autonomie Langues : Anglais Description de la prestation Intégration dans l'équipe BI Entreprise pour répondre aux besoins des métiers tels que Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux. La mission consiste à moderniser l'architecture décisionnelle en migrant les packages SSIS vers Azure Data Factory (ADF) et à développer des pipelines cloud. Objectifs principaux : Migrer les traitements SSIS vers ADF en assurant performance, robustesse et conformité. Concevoir et développer des pipelines ADF pour la collecte, l’intégration dans l’entrepôt SQL Managed Instance ou Snowflake. Créer et maintenir des Data Flows ADF (nettoyage, enrichment, transformation). Mettre en place et gérer des triggers conditionnels pour orchestrer des traitements complexes. Optimiser les coûts et performances des modèles BI (Power BI, modèles sémantiques, DAX). documenter les développements et assurer la maintenance opérationnelle (MCO) de l'existant.
CDI

Offre d'emploi
Data Architect

Publiée le
Architecture
AWS Cloud
Azure

65k-80k €
Paris, France
Télétravail partiel
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble
Freelance

Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier

Publiée le
Backlog management
Cloudera
Data governance

12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
CDI

Offre d'emploi
Data Architect

Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Freelance

Mission freelance
Administrer Devops plateforme Data Azure

Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 an
100-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage
Freelance

Mission freelance
Directeur de Programme Data / IA

Publiée le
Cloudera
Data analysis
Data governance

12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
CDI

Offre d'emploi
Data Engineer Talend - DAX

Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
CDI

Offre d'emploi
Data Engineer

Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
CDI

Offre d'emploi
Expert Data Gouvernance

Publiée le
AWS Cloud
Azure
Collibra

65k-80k €
Paris, France
Télétravail partiel
Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées
Freelance

Mission freelance
Tech Lead / Architecte Data

Publiée le
Angular
API
BigQuery

10 mois
Île-de-France, France
Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)
CDI

Offre d'emploi
Data Engineer Databricks - Paris

Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CDI

Offre d'emploi
Ingénieur IA H/F

Publiée le

50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Freelance

Mission freelance
Business Analyst « Analyse des ventes » - QLIK SENSE, Salesforce, SAP

Publiée le
Application web
Architecture
Commerce

6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
En tant qu' analyste en solutions commerciales numériques, spécialisé dans les rapports commerciaux (analyse des activités commerciales à l'aide de la solution Qlik Sense), vous ferez partie d'une équipe internationale chargée des applications commerciales et marketing (CRM, PIM, DAM, sites web, rapports commerciaux). Vous contribuerez à remettre en question et à améliorer les processus commerciaux actuels dans une approche à valeur ajoutée (croissance et productivité) Vous contribuerez à définir et à documenter les besoins commerciaux, en collaboration avec les équipes commerciales Vous définirez les impacts numériques et proposerez des solutions Vous contribuerez à la mise en œuvre et à la maintenance des solutions en tant qu'analyste des solutions commerciales numériques Vous serez l'interface entre les équipes commerciales et les équipes de livraison/production en facilitant la communication et en déterminant les solutions numériques qui correspondent aux besoins commerciaux exprimés et non exprimés, à l'architecture d'entreprise, au budget, au calendrier et à la qualité. Spécificités Solution principale : QLIK SENSE (6 applications commerciales), Salesforce, SAP, Snowflake, Datamart, Power BI, Principales interactions avec la solution : ERP, PIM, DAM, site web, middleware Relations avec les fournisseurs de services de solutions. Exemples de thèmes clés pour 2025-2026 (liste non exhaustive) Rapports commerciaux transitoires (fusion des rapports de vente entre les deux entreprises) Rapports commerciaux cibles (optimisation et automatisation du projet ci-dessus) Intégration CRM et continuité des rapports (continuité en termes de rapports après la fusion CRM) Refonte des rapports commerciaux (optimisation de l'architecture actuelle et rationalisation des applications)
73 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous