L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 275 résultats.
Offre d'emploi
Data Scientist
ANDEMA
Publiée le
Databricks
PySpark
Python
12 mois
55k-65k €
400-500 €
Lille, Hauts-de-France
Contexte Entreprise en forte croissance , avec un volume d’activité soutenu et de nombreux projets data en cours et à venir. Dans ce cadre, nous recherchons un(e) Data Scientist pour compléter l’équipe existante et contribuer activement au développement de nouveaux sujets stratégiques. Modalité : Pré-embauche (PE) Possibilité d’intervenir en freelance pendant la période de pré-embauche , avec une volonté forte d’internalisation à l’issue du process. Votre mission Vous rejoindrez une équipe data dynamique avec pour objectif : Prendre en main de nombreux sujets variés Construire, tester, industrialiser des modèles et analyses Travailler en étroite collaboration avec les équipes métiers Participer à la structuration et à la montée en maturité data de l’entreprise Contribuer à des problématiques de mesure de performance, campagnes marketing, retail média , etc. Ici, pas de silo : vous serez exposé(e) à des problématiques multiples et stimulantes. Nous recherchons donc des candidats passionnés et polyvalents. Stack technique Python (obligatoire) PySpark (obligatoire) Databricks Environnements data modernes orientés cloud Pourquoi nous rejoindre ? - Entreprise en forte croissance - Projets variés et concrets - Forte exposition business - Possibilité d’évolution rapide - Environnement agile et stimulant Si vous aimez la diversité des sujets, l’impact business et les environnements en croissance, cette opportunité est faite pour vous
Mission freelance
Consultant IFS Cloud Finance & Intégration ou Consultant ERP IFS / E-invoicing
UTALENT
Publiée le
Finance
IFS Cloud
6 mois
France
On recherche un profil Consultant Fonctionnel/Technique IFS Cloud avec une forte composante intégration: Compétences IFS Cloud : Module Finance IFS Cloud (comptabilité fournisseurs/clients) Module IFS Connect (flux d'échange, connecteurs) Idéalement : expérience sur le module E-invoice ou facturation électronique dans IFS Intégration & API : Développement et consommation d'API REST Expérience avec un ESB (Boomi est un vrai plus, sinon MuleSoft, Talend, etc.) Connaissance des flux EDI/XML/JSON Compétences fortement souhaitées Connaissance du cadre réglementaire facturation électronique française (réforme 2026, PDP, PPF, Chorus Pro) Expérience avec un PDP (Flowie, Chorus, Yooz, Basware…) Notions de Master Data Management Environnement industriel (manufacturing, supply chain)
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Offre d'emploi
Product Owner - Data H/F
CONSORT GROUP
Publiée le
JIRA
40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Offre d'emploi
Data base administrateur (DBA) MongoDB
Sijo
Publiée le
AWS Cloud
Azure
Mongodb
3 ans
55k-75k €
500-700 €
Île-de-France, France
Nous recherchons un Data base administrateur (DBA) MongoDB dynamique et motivé pour rejoindre le cabinet Sijo. Sijo est un cabinet de conseil en IT spécialisé dans le secteur de la banque et de la finance. Nous accompagnons nos clients dans leurs réalisations de projets techniques, ainsi que nos consultants dans leurs projets de carrière. Nous sommes un cabinet référencé auprès de la Société Générale, la BNP, la Banque Postale, le Crédit Agricole, Engie Trading et Natixis. Nous sommes référencé « Top vendeur » auprès de la Société Générale, ce qui signifie que nous faisons partie de leurs 40 1er fournisseurs. Le candidat idéal aura une expertise en gestion de base de données avec la technologie MongoDB et une bonne connaissance sur Azure et AWS.
Offre d'emploi
Architecte Data GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data GCP pour définir et piloter l’évolution des plateformes de données cloud natives sur Google Cloud. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies GCP tels que BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur GCP.
Mission freelance
Data Scientist - PhD
emagine Consulting SARL
Publiée le
Apache Spark
Bash
Git
36 mois
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation digitale au sein de l’activité Cargo d’un grand acteur international du transport aérien, nous recherchons un(e) Data Scientist afin d’intervenir sur des problématiques de Pricing et de Revenue Management. L’objectif de la mission est de maximiser les revenus liés au transport de marchandises en optimisant le remplissage des capacités disponibles via le développement de modèles de prédiction et d’optimisation. Vous interviendrez notamment sur : Le développement de modèles de prévision de la demande L’optimisation des stratégies de tarification L’amélioration de modèles existants L’aide à la décision pour l’acceptation et la répartition des flux L’analyse et la modélisation de données métier complexes
Mission freelance
CP Technique D365FO
Net technologie
Publiée le
Gestion de projet
Microsoft Dynamics
3 mois
Paris, France
Dans un contexte de croissance par acquisitions , le département Finance recherche un Technical Project Manager expert de Dynamics 365 F&O / Dynamics AX pour accompagner le déploiement de l’ERP au sein des entités acquises, stabiliser l’écosystème applicatif et contribuer activement à la transformation Finance . 🎯 Rôle clé : Pilotage et amélioration continue de l’architecture des systèmes financiers (Data Lake, Synapse, reporting, décommissionnement LCS) Évaluation technique de nouveaux outils Coordination des évolutions et incidents techniques avec les équipes IT internes et partenaires Suivi de l’implémentation des nouveaux outils de reporting
Offre d'emploi
Intégrateur Unix- CtrM -N2
KEONI CONSULTING
Publiée le
Big Data
Linux
UNIX
18 mois
20k-60k €
100-600 €
Niort, Nouvelle-Aquitaine
Contexte Dans le cadre de l’entité « Operations Data / IA » au sein du Centre des Opérations , participation à la mise en œuvre des projets fonctionnels et techniques dans l’environnement de production, au côté du Responsable de Projet de Production. Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS : Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). TACHES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans.
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Nantes, Pays de la Loire
Contexte de la mission Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Offre d'emploi
Data Engineer confirmé
ANAFI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
SQL
1 an
40k-45k €
100-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Au sein de la Direction des Systèmes d'Information d'un acteur majeur du secteur bancaire, vous intégrez une équipe Data en charge de la conception, du développement et du maintien en conditions opérationnelles des pipelines de données. Vous intervenez en transverse auprès de plusieurs directions métiers (Marketing, Fraude, Risque) pour répondre à leurs besoins en données fiables et accessibles. Missions principales Concevoir, développer et industrialiser les pipelines de données (batch et/ou temps réel) pour alimenter les cas d'usage métiers Développer et maintenir des APIs de mise à disposition des données Assurer le Build et le Run des solutions data : monitoring, gestion des incidents, optimisation des performances Collaborer avec les équipes métiers Marketing, Fraude et Risque pour comprendre les besoins, modéliser les flux de données et garantir la qualité des livrables Participer à l'industrialisation des déploiements via les outils XL Release et XL Deploy () Mettre en place et maintenir les workflows d'orchestration sur GCP Cloud Composer (Airflow) Contribuer à l'amélioration continue des pratiques (documentation, tests, revues de code) Stack technique Langages : Python, SQL Cloud : Google Cloud Platform (BigQuery, Cloud Storage, Pub/Sub…) Orchestration : Cloud Composer (Apache Airflow) CI/CD & Déploiement : XL Release, XL Deploy () Versioning : Git
Mission freelance
Data Engineer Snowflake (Lyon)
SQLI
Publiée le
Snowflake
1 an
400-500 €
Lyon, Auvergne-Rhône-Alpes
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'électroménager, je suis à la recherche d'un Data Engineer Snowflake. Son rôle : Participer à des ateliers d’analyse des besoins avec les partenaires commerciaux (finances, ventes, achats, etc.) Suggérer & construire des architectures techniques adaptées, en se concentrant sur la fiabilité ainsi que les performances Développer & maintenir des flux de données, notamment dans le contexte de migration vers Snowflake Optimiser les performances des applications existantes et assurer une documentation approfondie
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3275 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois