Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake à Paris
Votre recherche renvoie 35 résultats.
Offre d'emploi
Data Analyst H/F
JEMS
Publiée le
45k-55k €
Paris, France
Nous recherchons un(e) Data Analyst confirmé(e) capable d'accompagner les métiers dans l'aide à la décision. Vous aurez la charge de : • Guider et accompagner les équipes métier dans l'exploitation et la valorisation de leurs données, identifier des leviers d'optimisation et proposer des améliorations des processus business • Servir d'intermédiaire entre le métier et la DSI pour faciliter la circulation de l'information et la mise en place des solutions data • Recueillir et analyser les besoins métiers (Marketing, Retail, CRM, Supply, Finance...) et concevoir des dashboards Power BI à forte valeur ajoutée • Modéliser, préparer et fiabiliser les données (SQL, DAX, Databricks, Snowflake) et optimiser les flux pour garantir leur qualité et leur disponibilité • Mener et piloter des études analytiques, conduire des analyses permettant d'éclairer la prise de décision et d'orienter les actions métier • Contribuer à l'amélioration de la culture Data chez nos clients et renforcer la capacité des équipes à exploiter leurs données efficacement Référence de l'offre : 18agydgm9j
Mission freelance
Data Engineer confirmé - DATA et IA
Calytis
Publiée le
Big Data
Cloud
DevOps
12 mois
450-510 €
Paris, France
La prestation vise à contribuer à la réalisation des initiatives Data et IA 2026 au sein de la direction Informatique et d’un environnement technologique Cloud et Big Data. Elle a pour objectif de mettre à disposition une expertise Data engineering et de produire et d’industrialiser des traitements de données, des alimentations vers le socle Data et des composants Data/IA, tout en facilitant l’exploitation de ces éléments par les équipes consommatrices de données. La prestation s’inscrit également dans un cadre de collaboration avec les équipes internes Data science. sur des usages analytiques et IA, afin d’assurer la bonne compréhension, formalisation et couverture des besoins Data liés aux cas d’usage. La prestation consiste à : a. Réalisation et automatisation des flux de données - Conception et développement de flux d’alimentation de données vers les environnements Data et Innovation. - Mise en oeuvre de pipelines Cloud automatisés (Snowflake, Python, PySpark, services AWS tels que CloudFormation, Lambda, EMR, S3, EC2, Step Functions…). - Intégration de données issues de sources multiples, structurées ou non structurées. b. Développement de produits et composants Data/IA -Conception et réalisation de traitements, applications ou composants Data/IA. - Participation à l’industrialisation de modèles IA/ML et IA générative. c. Structuration, qualité et gouvernance des données - Normalisation, nettoyage, qualification et validation des données. - Documentation des structures de données, référentiels et règles de gestion. - Contribution à la cartographie et au référencement des données. d. Formalisation et clarification des besoins Data - Contribution à la formalisation des besoins Data exprimés par les équipes utilisatrices (dont les équipes analytiques). - Organisation et animation des ateliers nécessaires à cette clarification. e. Conception et intégration Cloud/DevOps - Mise en oeuvre et automatisation des déploiements via Azure DevOps. - Participation aux architectures Cloud Data (AWS + Snowflake). - Intégration de traitements ETL/ELT selon les standards techniques Livrables : Pipelines et flux d’alimentation opérationnels, automatisés et documentés. - Composants ou produits Data/IA prêts à l’usage. - Cartographie et documentation des données intégrées (référentiels, dictionnaires, règles). - Rapports de contrôle qualité, incluant duplications, cohérence, fraîcheur, conformité RGPD. - Documentation technique et architecture (Cloud, DevOps, Data). - Supports d’ateliers de clarification des besoins Data. - Datalake alimenté et dimensionné, avec données validées.
Mission freelance
Data Engineer senior - DATA et IA
Calytis
Publiée le
AWS Cloud
CI/CD
MLOps
12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Catégorisation assistance informatique à domicile
- Passage au réel après dépassement micro : notification URSSAF ?
- Barème kilométrique interdit pour les TNS, vrai ou faux ?
- Société étrangère dgfip s en mele
- Rester en EURL IS ou basculer à l'IR
- clause de NC : 2 intermédiaires et client qui cesse sa collaboration avec eux
35 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois