Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 28 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Consultant Snowflake - Secteur Maritime H/F

VIVERIS
Publiée le

40k-50k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Contexte de la mission : Viveris accompagne ses clients dans la sécurisation de leurs infrastructures, tant pour l'informatique de gestion que pour l'informatique industrielle. Dans ce cadre, nous recherchons un Consultant Snowflake. Dans ce rôle, vous serez responsable de la conception, du développement et de la gestion de l'entrepôt de données Snowflake, ainsi que de la création et de la maintenance des pipelines de données pour répondre aux besoins métier complexes de nos clients dans le domaine maritime. Intégré au sein de l'équipe Data, vous collaborerez avec l'architecte data et le responsable de la plateforme vous contribuerez à la mise en place ou l'amélioration de la partie Snowflake ainsi qu'à l'accompagnement des équipes off-shore. Responsabilités : - Concevoir et mettre en oeuvre des solutions de data warehousing basées sur Snowflake pour répondre aux besoins métier spécifiques du secteur maritime ; - Contribuer à l'amélioration à la gestion et aux résultats FinOps ; - Développer et maintenir les pipelines de données pour l'extraction, la transformation et le chargement (ETL) des données dans Snowflake.

Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

skiils
Publiée le
AWS Cloud
Informatica
Microsoft SQL Server

1 an
40k-65k €
Île-de-France, France

Description de la mission: Notre client souhaite renforcer le domaine Data de sa digitale factory avec Data engineer de plus de 5 ans d'expérience. Contexte : Dans le cadre du décommissionnement d'un datawarehouse legacy, la migration du flux Marketing est nécessaire pour assurer la continuité de service du reporting marketing ; But du projet : Migrer techniquement les extractions et les transformations de données du flux marketing de la base de données GDW depuis les outils INFORMATICA , SQL Server et SAS vers notre environnement data stratégique One Data Plateforme (Snowflake). Si cela ne met pas en risque la date de livraison, DBT et airflow peuvent être utilisés sur ce projet.

Freelance

Mission freelance
Architecte technique orienté data

Trait d'Union Consulting
Publiée le
Snowflake

1 an
150-3k €
La Défense, Île-de-France

Grand groupe dans l'industrie 2 jours de télétravail Contexte : Au sein du DataHub du groupe, l'Architecte Technique Data interviendra sur différents projets. Il intégrera des composants techniques de cybersécurité, participera à l'évolution de la plateforme et proposera une architecture technique data. Profil avec des connaissances en infrastructure système et data. Compétences requises : Snowflake, Synapse, Anglais professionnel. Bonne communication. Grand groupe dans l'industrie 2 jours de télétravail Contexte : Au sein du DataHub du groupe, l'Architecte Technique Data interviendra sur différents projets. Il intégrera des composants techniques de cybersécurité, participera à l'évolution de la plateforme et proposera une architecture technique data. Profil avec des connaissances en infrastructure système et data. Compétences requises : Snowflake, Synapse, Anglais professionnel. Bonne communication.

CDI

Offre d'emploi
DevOPS

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

45k-60k €
Paris, France

Tu corresponds au/à la DevOps que nous recherchons si tu possèdes une solide expérience (3-5 ans) sur les sujets suivants : - Projets DevOps : architecture, déploiement d’applications, monitoring d’infrastructure. - Connaissances approfondies du DevOps (IaC, monitoring, CI/CD, ) - Expérience significative sur au moins un des Cloud Providers principaux (AWS, Azure, GCP) et les services DevOps associés. Tu as le profil d’un(e) futur(e) Komeeter si : - Tu es autonome et sais travailler en équipe notamment dans des contextes Scrum/Agile - Tu sais être force de proposition et as un esprit de synthèse. - Tu sais avoir à la fois une vision technique mais aussi métier Ton quotidien chez Komeet sera rythmé par : - L’animation des ateliers afin d’étudier et cadrer les besoins clients - La construction, le déploiement et le bon fonctionnement des infrastructures ainsi que des applications datas dans des environnements Cloud. - Le développement, via l’infrastructure as code, des fondamentaux réseaux et systèmes ainsi que des services Cloud Public - L’automatisation du provisioning des environnements via des outils de déploiement continu - La rédaction et l’évaluation des procédures d’exploitation - La participation à l’effort de veille technologique.

Freelance

Mission freelance
Data engineer Snowflake (H/F)

LeHibou
Publiée le
Informatica
Snowflake

6 mois
500 €
Issy-les-Moulineaux, Île-de-France

Notre client dans le secteur Industrie recherche un Data engineer Snowflake H/F But du projet : Migrer techniquement les extractions et les transformations de données du flux marketing de la base de données GDW depuis les outils INFORMATICA , SQL Server et SAS vers notre environnement data stratégique One Data Plateforme (Snowflake). Si cela ne met pas en risque la date de livraison, DBT et airflow peuvent être utilisés sur ce projet. Les principales taches seront : - Effectuer le reverse engineering des flux informatica - implémenter les flux dans snowflake - Orchestrer les flux dans snowflake - effectuer la recette en 1 pour 1 des fichiers produits

Freelance
CDI

Offre d'emploi
Administrateur de la plateforme Data

Hays Medias
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake

12 mois
10k-60k €
Strasbourg, Grand Est

Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Responsabilités principales : Gestion de la base de données : Concevoir, créer, maintenir et gérer les bases de données, y compris celles utilisant des systèmes tels que Snowflake et BigQuery. Evolution de la plateforme data : Veiller au maintien en condition opérationnelle de la plateforme. Dette technique : Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances : Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi. Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données. Sauvegarde et récupération des données : Implémenter, adapter des politiques de sauvegarde des données spécifiques à chaque technologie, y compris la gestion des snapshots dans Snowflake et les fonctionnalités de sauvegarde dans BigQuery. Documentation : Maintenir une documentation complète de la structure de la base de données, des processus ETL, et des politiques de sécurité, en utilisant des outils de documentation appropriés pour chaque technologie.

Freelance
CDI

Offre d'emploi
Développeur Talend

HR-TEAM
Publiée le
Apache Kafka
Java
Snowflake

36 mois
40 400-44 900 €
Lille, Hauts-de-France

Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur bancaire. Poste et missions Vous intégrerez notre squad Data/IA et travaillerez en étroite collaboration avec les équipes BI en accomplissant les activités suivantes : • Conception de solution : pattern d’architecture à instancier sur la plateforme, identification des données sources requises, capacités Socle requises, chiffrage et risques associés • Développement ou suivis des développements des usages • Tests, recette et mise en production des usages snowflake • Enrichissement du processus de gouvernance des données associées à l’usage • Veille et prospective sur les usages, outils data en accord avec la cible décisionnelle définie sur snowflake Méthodologie de travail : Agile Télétravail : 2 jours par semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Freelance

Mission freelance
CONSULTANT PLATEFORME DATA

HAYS MEDIAS
Publiée le
BigQuery
ETL (Extract-transform-load)
Snowflake

12 mois
100-440 €
Strasbourg, Grand Est

Assurer la performance et la sécurité de la plateforme de données de l'entreprise, en se concentrant sur les outils et technologies tels que DataHub Semarchy Xdi, Snowflake, et BigQuery. Gestion de la base de données Evolution de la plateforme data Dette technique Optimisation des performances Sécurité des données Intégration des données Sauvegarde et récupération des données Documentation · Compréhension des principes de la sécurité des données, y compris les aspects liés à chaque technologie. · Capacité à résoudre des problèmes techniques de manière efficace. · Bonnes compétences en communication pour collaborer avec d'autres équipes et résoudre les problèmes de manière proactive.

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

Freelance

Mission freelance
dataiku snowflake

Innov and Co
Publiée le
Dataiku
Snowflake

12 mois
100-650 €
Paris, France

Au sein de notre Cloud AWS, nous faisons converger nos univers big data et BI coeur de métier assurance. Dans ce cadre le service 'Data Analyst' change d'outils de préparation de données et de stockage. Ainsi, la préparation des données passe de Matillion (générateur de SQL avec moteur de BDD Redshift) à Data Science Studio (Dataïku), et le stockage passe de S3/Redshift à Snowflake. Le renfort recherché doit :- réaliser cette migration sur une partie des data prep en production- accompagner les équipes dans leur montée en compétence sur Snowflake et Dataïku- permettre à l'équipe de maintenir sa productivité en parallèle de la migration. Nature et étendue de la prestation Le renfort interviendra en tant que 'Data Analyst'. Il sera en charge de la transformation des dataprep de Matillion vers SnowFlake/DSS en collaboration avec les DA de l'équipe. Il devra être en capacité de faire de la pédagogie auprès des équipes de DA afin d'optimiser le code existant pour qu'il soit utilisé sur un nouveau flow DSS avec Snowflake Il devra également participer aux réunions qui l'impacteront Livrables attendus & planning- Aplatissement/Optimisation des requêtes existantes dans Matillion (Redshift SQL)- Migration des requêtes dans de nouveaux flows dans DSS avec le connecteur Snowflake SQL- Comparaison du contenu et de la volumétrie entre les tables finales existantes (S3) et les nouvelles tables (Snowflake)- Mise en place de métriques et de vérification dans le flow DSS- Documentation des flows- Paramétrage de l'exécution des traitements Airflow via dynamoDB

Freelance

Mission freelance
Administrateur de la platefofrme Data (H/F)

HAYS MEDIAS
Publiée le
BigQuery
Snowflake

3 mois
100-430 €
Grand Est, France

Dans le cadre d'un renfort, mon client recherche son futur Administrateur de la plateforme Data (H.F). Le rythme de travail est de 2 jours de télétravail par semaine. Votre principale mission : Gestion de la base de données Concevoir, créer, maintenir et gérer les bases de données y compris celles utilisant des systèmes tels que snowflake et BigQuery Evolution de la plateforme Data Veiller au maintien en condition opérationnelle de la plateforme. Dette technique Identifier activement les domaines de la dette technique au sein de la plateforme de données et mettre en œuvre des plans d'action pour réduire cette dette au fil du temps. Optimisation des performances Surveiller et optimiser les performances des bases de données, en utilisant des outils spécifiques à chaque technologie, tels que les fonctionnalités de Snowflake pour le scaling et les capacités de requête de BigQuery. Sécurité des données : Mettre en œuvre des mesures de sécurité spécifiques à chaque technologie, en utilisant les fonctionnalités de sécurité intégrées dans Snowflake et BigQuery, ainsi que des politiques de sécurité pour DataHub Semarchy Xdi Intégration des données : Collaborer avec les équipes de développement pour intégrer les données provenant de différentes sources, en utilisant les fonctionnalités de transformation et d'intégration des données des outils de l’entreprise, ainsi que les fonctionnalités de Snowflake et BigQuery pour l'entreposage et l'analyse des données.

Freelance

Mission freelance
Consultant Senior Expert Cloud GCP

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform
Snowflake

12 mois
100-740 €
La Défense, Île-de-France

Notre cabinet de recrutement Hoxton Partners recherche pour l’un de ses clients un consultant (H/F/Y) Senior Expert Cloud GCP (Google Cloud Platform). Nous recherchons un consultant (H/F/Y) capable de monter un environnement GCP et une plateforme Bigquerry. Ayant de très bonne connaissance en développement et en sécurité cloud GCP. Cadre: Renforcement d' équipe - Date de début : ASAP - Durée de la mission: 12 MOIS Renouvelable - Lieux: La défense - Secteur: Retail - Expérience: 5 à 10ans - Télétravail: 3 jours sur site et 2 jours en remote - Langue :Français et anglais

Freelance
CDD

Offre d'emploi
Consultant Data Expérimenté H/F

SMARTPOINT
Publiée le
Snowflake

20 mois
10k-45k €
Paris, France

Contexte: Notre plateforme Data & Analytics repose sur des design paterns où les ingestions de données sont paramétrées et ingérées en mode « delta-lake »(Tables de streaming). Toutes les transformations et règles de gestions sont réalisées au sein de nombreuses procédures stockées (SQL et javascript), voire Python avec Snowpark (pour les transformations plus techniques et avancées). Ces transformations sont ordonnancées par le service Azure Automation et supervisées via le service managé logAnalytics. Les déploiements sont gérés par des chaînes complètes CI/CD d’Azur. Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO Cyber, Annuaire, Coud Business Office, sécu, ...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alertes de sécurité • Développement solutions applicatives • Développement solutions infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité du Groupe • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL, C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA (.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) FinOps: • Cost management opérationnel et forecast • Optimisation des usages infra/services et plateforme

Freelance

Mission freelance
Architecte Data Azure et Snowflake

Inventiv IT
Publiée le
Azure
BigQuery
Databricks

12 mois
660-780 €
La Défense, Île-de-France

Architecte Data Azure et Snowflake . - Il maîtrise le panel des exigences fonctionnelles et non fonctionnelles à collecter afin d'assurer l'efficience opérationnelle et la pérennité de la data platform. - Expert et maîtrise tous les outils et services de l’écosystème Azure et a des facilités pour étendre votre champ de compétences. - proactif/ve sur la veille technique et la capitalisation et veille à garder toujours un temps d'avance sur l'état de l'art du secteur afin de pouvoir guider ses clients. - En tant qu'architecte expérimenté(e) il peut intervenir sur des missions opérationnelles pour concevoir la solution cible ou en phase de cadrage amont pour guider les choix et construire les roadmaps. - pédagogue et sait communiquer et vulgariser des réflexions complexes pour les rendre accessibles à tous.

Freelance

Mission freelance
Data Engineer F/H

CELAD
Publiée le
Azure
Snowflake

24 mois
100-650 €
Île-de-France, France

Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Snowflake pour intervenir chez un de nos clients. Le candidat idéal sera responsable des nouveaux développements de pipelines de données, tout en suivant les normes, les meilleures pratiques et les principes CI/CD. Responsabilités Principales : Création et modification d'objets de base de données Snowflake, y compris les bases de données, les tables et les vues. Développement de procédures stockées Snowflake en utilisant SQL et Javascript. Gestion de l'environnement de développement jusqu'à l'implémentation en production en suivant le processus CI/CD. Assurer un niveau de service élevé, couvrant la conception, la construction, l'exécution et la gestion des incidents. Garantir la qualité des codes fournis par l'équipe de développement.

Freelance

Mission freelance
Data Product Owner ETL Matillion /Snowflake /Azure /Python

HIGHTEAM
Publiée le
Azure
ETL (Extract-transform-load)
Python

3 ans
100-550 €
Île-de-France, France

Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, Description de la mission En tant que Data Product Owner Opérations, vos responsabilités seront les suivantes : • Contribuer à l’amélioration des processus opérations et de mesure de la performance en étroite collaboration avec les équipes opérationnelles, • Identifier les données disponibles, les données à collecter afin de mesurer la valeur que la Data pourra apporter aux équipes • Proposer et mettre en œuvre les outils Data adaptés sur la base de l’analyses des problèmes rencontrés sur le terrain • Participer aux différentes cérémonies agiles • Assister les utilisateurs lors des phases de déploiement des nouvelles fonctionnalités, être attentifs à leurs feedback

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous