L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 566 résultats.
Offre d'emploi
Data web analyst
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server
1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Administrateur Infra & Cloud H/F/X - Rennes
Publiée le
Administration linux
Administration Windows
Azure
1 an
Rennes, Bretagne
Télétravail partiel
Description du poste Au sein d'Helpline, l'entreprise propose une offre d hébergement Cloud pour ses clients dirigée par une équipe dédiée à celle-ci. Afin d accompagner sa croissance, nous recherchons un profil administrateur système confirmé. Sous la responsabilité du Directeur Technique, vous intervenez sur les missions suivantes : Participer à la définition des architectures techniques de la plateforme ; Participer et assurer le MCO de la plateforme ; Assurer la gestion de la sécurité des environnements : virale, réseau, data, service ; Être acteur des projets d évolutions / MCO ; Superviser les SI ; Apporter une expertise technique sur les environnements : réseau, virtualisation, systèmes, stockages ; Rédiger et créer des documentations : dossier technique, base de connaissance, FAQ.
Offre d'emploi
Administrateur Infra & Cloud H/F/X - Nantes
Publiée le
Administration linux
Administration Windows
Azure
1 an
Nantes, Pays de la Loire
Télétravail partiel
Description du poste Au sein d'Helpline, l'entreprise propose une offre d hébergement Cloud pour ses clients dirigée par une équipe dédiée à celle-ci. Afin d accompagner sa croissance, nous recherchons un profil administrateur système confirmé. Sous la responsabilité du Directeur Technique, vous intervenez sur les missions suivantes : Participer à la définition des architectures techniques de la plateforme ; Participer et assurer le MCO de la plateforme ; Assurer la gestion de la sécurité des environnements : virale, réseau, data, service ; Être acteur des projets d évolutions / MCO ; Superviser les SI ; Apporter une expertise technique sur les environnements : réseau, virtualisation, systèmes, stockages ; Rédiger et créer des documentations : dossier technique, base de connaissance, FAQ.
Offre d'emploi
Consultant en solutions Cloud, Réseau et Datacenter Bilingue sur Puteaux (92)
Publiée le
Architecture
Azure
ISO 27001
3 mois
Puteaux, Île-de-France
Télétravail partiel
Je recherche pour un de mes clients un Consultant en solutions Cloud, Réseau et Datacenter sur Puteaux (92) Summary of the role Provide expert oversight of direct and hybrid datacentre and cloud-based platform and networking solutions and associated infrastructures through sound engineering support and technical direction. This role ensures technology platforms support regulatory compliance, data security, and operational efficiency while enabling scalable innovation and reliable services in support of the business and their customers. This is a great opportunity to work on in country needs as part of a global team, supporting the breadth of the organization. We are looking for an individual with strong technical skills who is organized, thorough and has the desire to work in a challenging environment. The role • Assess current IT infrastructure and recommend cloud and datacenter strategies aligned with financial industry regulations (e.g., FCA, PRA, GDPR). • Design, engineer, and implement solutions that align to the regional technology strategy while also meeting business requirements and processes. • Collaborate with Leadership team on roadmap and strategic initiatives. • Advise on cost optimisation, risk mitigation, and resilience planning for critical financial systems. • Architect secure, scalable solutions across public cloud platforms (Azure) and on-premises datacenters. • Collaborate with peers across the portfolio to manage dependencies, priorities, integrations and change impacts on people, processes and/or technology. • Partner with technical teams (Architects, Platforms, Cyber, Cloud Operations, etc.) to assist in creating solutions that balance business requirements with information and cybersecurity requirements in alignment with company's standards and risk appetite. • Implement hybrid cloud strategies to support sensitive workloads and regulatory requirements. • Lead migrations of core applications to cloud environments • Help in the creation of process documents, guides and procedures, appropriate tools, templates, that will help create efficiencies and support cloud adoption. • Ensure adherence to financial compliance frameworks (ISO 27001, PCI DSS, SOC 2). • Implement advanced security controls, encryption, and identity management for sensitive financial data. • Support audits and provide documentation for regulatory reporting. • Monitor performance and availability of mission-critical systems. • Optimise infrastructure for high availability, disaster recovery, and business continuity. • Partner with risk, compliance, and security teams to align technology with governance standards. The requirements • Qualified to degree level, preferably in a business, IT or security related subject • Proven experience in cloud architecture and datacentre solutions within financial services • Expertise in Microsoft Azure, HyperV with strong knowledge of hybrid cloud models • Understanding of financial compliance and regulatory frameworks • Strong networking, virtualisation, and storage knowledge • Certifications such as Azure Solutions Architect Expert or similar • Minimum 10 years’ experience in above areas • Leadership ability • Strong analytical skills with an eye for detail • Exceptional communication skills both written and verbal (French and English essential) • Ability to clearly communicate messages to a variety of audiences • Experience in technology consulting • Resilience and adaptability • Excellent listening skills Desirable Skills: • Experience with financial transaction systems and high-volume data processing • Strong foundation across Microsoft Azure technology stack • Experience using architecture methodologies • Experience in Azure application security architecture and deployments • Familiarity with DevOps and Infrastructure as Code • Standardizing Azure Security best practices, processes, and procedures • Ability to prioritize multiple requests and clearly communicate the priorities to the team and management. • Effectively handles difficult requests, builds trusting, long-term relationships with Internal stakeholders and manage client/business expectations Démarrage: ASAP
Mission freelance
DATA ARCHITECTE GCP
Publiée le
Google Cloud Platform (GCP)
3 mois
400-650 €
Paris, France
· Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation
Mission freelance
LEAD DATA SCIENTIST GCP (550 MAX)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Pilotage Technique & Architecture : Concevoir l'architecture des briques algorithmiques (Clustering, Prévision de ventes, Optimisation sous contraintes) sur GCP. ● Développement algorithmique (Hands-on) : Coder les modèles complexes, notamment l'algorithme d'optimisation (Recherche Opérationnelle) pour respecter les contraintes magasins (linéaire, supply, mix marge/CA). ● Coaching & Code Quality : En support éventuel de notre Lead Data Scientist interne, encadrer les Data Scientists séniors, garantir les bonnes pratiques (CI/CD, DVC, Tests) et l'industrialisation via Airflow/Composer. ● Mesure de la performance : Mettre en place des méthodologies robustes (ex: Causal Impact) pour mesurer les gains business (CA/Marge) post-déploiement. ● Excellente maîtrise de SQL, avec une forte expérience sur BigQuery et une bonne connaissance des bases de données SQL/NoSQL (PostgreSQL, MongoDB, DBL…). ● Modélisation et préparation des données : conception de pipelines optimisés dans BigQuery, en garantissant la qualité, la fiabilité et la cohérence des analyses. ● Connaissance des architectures data modernes (Data Lake, Data Warehouse) et des environnements Cloud (GCP, AWS, Azure). ● Maîtrise des outils de CI/CD avec GitLab CI, et des pratiques de gestion de version (Git). ● Compréhension des principes DevOps, avec une vision orientée fiabilité et amélioration continue. ● Bonne maîtrise des méthodologies agiles, notamment Scrum, Sprint Planning et Backlog
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Architecte DATA- Data Architecture
Publiée le
DBT
Python
Terraform
18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Mission freelance
Data Analyste Senior
Publiée le
Microsoft Power BI
Piano Analytics
SQL
210 jours
Paris, France
Télétravail partiel
Contexte et définition du besoin Une grande Direction Data rattachée à la Direction du Numérique d’un acteur majeur du secteur médias / contenus numériques recherche un Data Analyste Senior pour soutenir la transformation data-driven et le pilotage des performances de ses plateformes numériques. La mission vise à accompagner les équipes produit et éditoriales sur l’analyse de la performance des contenus jeunesse dans un contexte de forte évolution des usages digitaux. 2. Prestations attendues Analyse et reporting Recueil et formalisation des besoins auprès des équipes internes. Définition des sources de données et rédaction des cahiers des charges à destination des Data Engineers. Conception, automatisation et maintenance des dashboards Power BI . Itérations et validations en mode agile. Accompagnement et pilotage Coaching et acculturation data des équipes internes. Définition, harmonisation et suivi des KPIs transverses. Contribution au déploiement et à l’amélioration du tracking multi-supports (Web, App, TV). Formalisation des besoins analytics en lien avec les équipes produit et techniques. Analyse des usages Analyse des audiences et comportements utilisateurs via Piano Analytics / AT Internet , Nielsen , eStat Streaming . Analyse des parcours et de l’expérience utilisateur avec ContentSquare . Collaboration avec l’équipe Études pour les analyses vidéo et usage. 3. Compétences recherchées Compétences techniques Maîtrise confirmée de : Piano Analytics / AT Internet , eStat Streaming, Nielsen. Expertise Power BI. Très bonne connaissance SQL. Connaissance GCP, Power Automate. Outils : Excel, PowerPoint, Jira, Confluence, GetFeedback/Usabilla. Compétences solides en tracking multi-supports. Expérience en analyse UX avec ContentSquare. Compétences fonctionnelles Capacité à structurer des KPIs, piloter des sujets analytics et produire des reporting fiables. Expérience en coaching et accompagnement data. Gestion de projet.
Offre d'emploi
Proxy Product Owner Senior - Sophia Antipolis
Publiée le
MySQL
Spring
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte & Enjeux Dans le cadre d’un projet au sein d’une équipe multisite , nous recherchons un Proxy Product Owner Senior capable d’assurer la continuité opérationnelle et la coordination fonctionnelle entre les équipes métiers, techniques et produit. 🛠️ Missions principales Collaborer étroitement avec le Product Owner et le Product Manager pour construire et affiner la vision produit. Rédiger des User Stories claires et détaillées. Gérer et maintenir le backlog de l’équipe : priorisation, organisation, cohérence globale et roadmap. Garantir la bonne compréhension de chaque User Story tout au long de son cycle de vie : présentation pour estimation, support aux développeurs, validation fonctionnelle, suivi de la stratégie d’automatisation des tests, support aux analyses d’incidents en production. Assurer une synchronisation fluide avec les autres équipes du programme (feature teams, exploitation technique) via : PO Sync, ateliers de conception, comités d’architecture, PI Planning. 📄 Livrables attendus User Stories Dossier de spécification (Confluence) 🧩 Compétences requises Techniques : SQL : Confirmé – indispensable Spring : Junior – un plus apprécié Linguistiques : Français : courant – impératif Anglais : professionnel – souhaité
Mission freelance
Data Engineer Python / AWS (h/f)
Publiée le
1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
566 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois