L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 233 résultats.
Mission freelance
Chef de Projet IA Générative Technique
Publiée le
Angular
IA Générative
Python
6 mois
510-620 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe d'innovation transverse au sein de la DSI Corporate d'un grand groupe du secteur Banque & Assurance. Cette équipe, composée d'une vingtaine d'experts (Data Engineers, Data Scientists, Développeurs Fullstack), agit en mode "commando" pour développer des solutions tactiques et innovantes au plus près des besoins métiers. L'un de nos axes majeurs actuels est l'accompagnement de l'ensemble des métiers du groupe dans la mise en œuvre de cas d'usage d'IA générative. En tant que Chef de Projet IA passionné et expérimenté, vous serez responsable du pilotage de projets liés à l'IA générative, en vous assurant que les solutions développées répondent parfaitement aux besoins des utilisateurs finaux. Vos Missions Principales : Pilotage et Recueil des Besoins : Collaborer étroitement avec les parties prenantes (métiers) pour identifier et analyser les besoins. Organiser et animer des ateliers de co-conception. Gestion de Projet : Élaborer et suivre le planning, coordonner les activités des développeurs (Python, Angular) et assurer le respect des délais. Conception Technique : Participer activement à la conception des solutions techniques en collaboration avec les développeurs, en veillant à l'alignement avec les besoins exprimés. Qualité et Tests : Assurer la qualité des livrables en mettant en place les processus de validation et de tests adéquats. Communication "Pivot" : Agir comme l'interface principale entre l'équipe technique et les métiers, en facilitant la compréhension mutuelle et en présentant régulièrement l'avancement. Veille Technologique : Rester à l'affût des dernières tendances dans le domaine de l'IA.
Mission freelance
Data Analyst - Infogérance - Lille (H/F)
Publiée le
Microsoft Power BI
SQL
6 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Rejoignez l'une des entreprises leaders dans l'optimisation et la transformation digitale au sein du secteur des services numériques. Basée à Lille et rayonnant sur tout le territoire français, notre entreprise s'engage à offrir des solutions innovantes à ses clients afin de les accompagner dans leur évolution. Face à une croissance constante et à une demande accrue pour des analyses de données précises et transformantes, nous recherchons activement un(e) Data Analyst pour renforcer notre pôle Data. Vous travaillerez étroitement avec les métiers pour transcrire leurs besoins en solutions data-driven, assurant la qualité et la pertinence des insights. Missions - Élaborer le cadrage fonctionnel des cas d’usage avec les différents métiers de l'entreprise. - Traduire des besoins métier en datasets, KPIs et tableaux de bord efficaces. - Réaliser des explorations approfondies de données avec un fort accent sur le storytelling. - Assurer la documentation et la qualité des données. - Contribuer à la mise en œuvre des cas d’usage sur Power BI / Fabric en tant que data consommateur. - Fournir un support aux POC/expérimentations IA en collaboration avec les Data Engineers.
Mission freelance
OPS / Intégrateur Production (RUN BI – On-Premise)
Publiée le
COBOL
Linux
UX design
120 jours
580-660 €
Châtillon, Île-de-France
Télétravail partiel
OPS / Intégrateur Production (RUN BI – On-Premise) Localisation : Île-de-France Objectif global : Piloter et sécuriser les évènements de production 🎯 Objectif de la mission Assurer l’exploitation, la stabilité et la fiabilité des applications BI existantes dans un contexte On-Premise (Linux/Unix/AIX, Oracle, Mainframe). Le rôle implique l’analyse d’incidents, les actions d’exploitation avancées et l’évolution de scripts techniques en environnement retail. 🔒 Contrainte forte Aucune mentionnée. 📦 Livrables attendus Analyse des incidents et identification des causes racines. Proposition et mise en œuvre des solutions. Évolution de scripts Shell/SQL selon les besoins métier. Compréhension des sujets métiers variés et de leur implémentation technique. 🧩 Description de la mission Au sein d’un Pôle Applicatif dédié à la BI, le consultant OPS/Intégrateur assure les opérations RUN sur plusieurs plateformes On-Premise. Responsabilités principales Exploitation quotidienne des applications BI. Analyse, résolution et suivi des incidents. Création, modification et troubleshooting de jobs OPC. Manipulation et évolution de scripts Shell complexes. Chargement de fichiers (dump Oracle, MVS, plats) en base. Export et transfert de données via FTP/SFTP. Support technique de niveau avancé auprès des Responsables d’Applications et Data Engineers. 🖥️ Compétences techniques requises Systèmes (impératif – niveau Expert) Linux / Unix / AIX – Expert Z/OS – Expert Connaissances Mainframe attendues : ▪ création/analyse/modification de JCL ▪ gestion de fichiers MVS Ordonnanceur OPC (IBM) – Confirmé (impératif) Création / modification / troubleshooting de jobs Scripting Shell – Confirmé (impératif) Analyse et modification de scripts complexes Intégration et transfert de données inter-systèmes Bonus apprécié COBOL : capacité à analyser, builder, déployer des programmes 📚 Compétences transverses Excellente capacité d’analyse, compréhension des enjeux métiers (logistique, commandes, référentiel, ventes, achats, promotions, factures, impayés…). Capacité à comprendre et implémenter la logique technique des chaînes applicatives. Travail en collaboration avec les Responsables Applicatifs et Data Engineers. Orientation production / RUN (incidents, corrections, évolutions). 🗂️ Périmètre fonctionnel Très large périmètre retail couvrant : Logistique Référentiel Commandes Ventes Achats Promotions Données financières (factures, impayés…) 🗣️ Connaissances linguistiques Français courant (impératif) 📘 Définition du rôle générique associée Analyse des besoins & veille technologique Étude et préconisation des solutions techniques. Rédaction de cahiers des charges et participation aux appels d’offres. Veille technologique permanente. Mise en place & intégration Paramétrage, configuration et dimensionnement des solutions. Tests, validation technique, sécurité et compatibilité. Exploitation Validation et intégration des outils. Diagnostic, traitement et suivi des incidents. Propositions d’améliorations et optimisation des ressources. Rédaction et mise à jour des documentations. Transfert de compétences aux équipes d’exploitation. Sécurité Application des règles internes de sécurité. Sauvegardes, archivage, plans de secours.
Offre d'emploi
Data Analysis – AMOA NIveau 3
Publiée le
Business Analyst
18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Offre d'emploi
ARCHITECTE DATA / BI / POWER BI SENIOR
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-650 €
Paris, France
Télétravail partiel
Bonjour 🙃, Pour le compte de notre client, nous recherchons un Architecte DATA / BI / CLOUD AZURE / POWER BI. Contexte : Dans le cadre de projets stratégiques de transformation digitale et d’exploitation des données, nous recherchons un Architecte Data expert sur les environnements Azure et outils Power BI . Le consultant sera intégré aux équipes Data & BI pour définir l’architecture cible, piloter les projets d’intégration, et garantir la qualité et la sécurité des flux de données. Missions principales : Définir et mettre en œuvre l’architecture Data sur le cloud Azure (Data Lake, Data Factory, Databricks, Synapse). Concevoir et structurer les pipelines de données pour ingestion, traitement et transformation des données massives. Développer et superviser des solutions Power BI : dashboards, rapports, cubes tabulaires, DAX, modèles analytiques. Assurer la qualité, sécurité et gouvernance des données , en lien avec les référents Data et équipes infrastructure. Piloter les phases de modélisation et intégration des données, en collaboration avec les Data Engineers et Data Analysts. Participer à la définition des standards de développement , bonnes pratiques et documentation technique. Réaliser des revues techniques et valider les choix d’implémentation des équipes projet. Conseiller les métiers sur l’exploitation des données et la prise de décision via les outils BI . Participer à l’accompagnement et formation des équipes sur les pratiques et outils Data. Compétences techniques indispensables : Expertise en Azure Data Platform : Data Lake, Data Factory, Synapse Analytics, Databricks. Maîtrise des langages SQL / T-SQL et des pratiques de modélisation de données. Power BI : développement de dashboards, rapports, modèles analytiques et DAX. Connaissance des ETL/ELT , pipelines et intégration de flux complexes. Connaissance de la sécurité, gouvernance et gestion des accès aux données. Expérience avec CI/CD sur Azure DevOps et versioning. Compétences transverses : Vision globale et capacité à traduire les besoins métiers en architecture technique. Leadership et capacité à piloter et conseiller des équipes techniques. Excellent relationnel et communication avec les équipes techniques et métiers. Sens de l’organisation et capacité à gérer plusieurs projets simultanément.
Mission freelance
Program Manager
Publiée le
Big Data
Cloud
Data management
1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Mission freelance
LLMOPS (infra)
Publiée le
Azure
Databricks
DevOps
12 mois
400-550 €
Paris, France
Télétravail partiel
Il ne s’agit pas d’un poste de Data Engineer ou de MLOps généraliste. Le périmètre est exclusivement centré sur l’opérationnalisation, la fiabilité et la gouvernance des LLM. Architecture & Stratégie LLMOps Définir les standards, bonnes pratiques et guidelines internes pour l’usage des LLM. Concevoir les architectures robustes permettant une intégration fluide avec l’écosystème existant. Déploiement & Exploitation des modèles Déployer les modèles (internes ou externes) sous forme d’API ou de services conteneurisés. Assurer la scalabilité, la haute disponibilité et l’optimisation des coûts (GPU, quantization, optimisation d’inférence). Mettre en place des pipelines de mise à jour, de versioning et de rollback. Observabilité & Performance Implémenter monitoring, logging, alerting et métriques spécifiques aux LLM (qualité, dérive, latence). Garantir des performances stables et optimiser en continu l’inférence et les workflows associés. Sécurité, conformité & gouvernance Encadrer les pratiques d’usage des LLM : sécurité des prompts, prévention des fuites de données, durcissement des endpoints. Veiller à la conformité (RGPD, confidentialité, accès, auditabilité). Définir les règles de gouvernance modèle/données pour un usage maîtrisé. Support & Acculturation interne Proposer un « LLM-as-a-Service » pour les équipes internes (API, outils, guidelines). Sensibiliser et former les équipes aux bonnes pratiques d’utilisation des LLM (prompting, risques, limitations). Accompagner les projets métiers exploitant l’IA générative. Compétences techniques Solide expérience en DevOps / Infra : Docker, Kubernetes, CI/CD, API, observabilité. Très bonne compréhension des LLM, de leurs contraintes de déploiement et d’inférence. Bonnes bases en IA générative : fine-tuning, RAG, embeddings, limitations bien comprises. Connaissances avancées en sécurité cloud & data, gestion des accès, compliance. À l’aise avec les environnements cloud (Azure, AWS, GCP) et les workloads GPU
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
BI Engineer & Analytics Engineer (Tableau / dbt)
Publiée le
Azure Data Factory
BI
Big Data
12 mois
400-470 €
Lille, Hauts-de-France
Télétravail partiel
L’équipe People Data a pour vocation de soutenir la stratégie RH d’une entreprise internationale en accompagnant le développement, le bien-être et la performance de ses collaborateurs. Au cœur de la transformation de l’organisation, cette équipe met la donnée au service des équipes RH, Talent Development, Engineering et Product afin de piloter, comprendre et anticiper les dynamiques humaines et organisationnelles. Composée de Data Product Managers, Data Analysts, BI Engineers, Analytics Engineers, Data Engineers et d’experts en gouvernance de données, elle développe des produits et des solutions innovants de People Analytics à forte valeur ajoutée. Dans ce cadre, nous recherchons un(e) BI Engineer & Analytics Engineer (Tableau / dbt) pour accompagner les équipes Talent Development sur un périmètre international. 🎯 Mission principale Concevoir, développer et maintenir des solutions de reporting et de data visualisation fiables, automatisées et pertinentes, au service des équipes Talent Development et RH. 🧩 Responsabilités Développer et maintenir des reportings auditables, légaux ou stratégiques à destination des équipes Talent Development. Assurer la réconciliation et la cohérence des données issues de différentes sources et pays. Garantir la qualité, la fiabilité et la traçabilité des données et des indicateurs produits. Concevoir, optimiser et automatiser des dashboards Tableau pour le suivi des KPIs RH. Participer à toutes les phases du cycle projet : du cadrage au déploiement en production, puis assurer le run des solutions. Proposer des visualisations et modèles de données pertinents et adaptés aux usages métiers. Contribuer aux rituels agiles (daily, sprint review, rétrospective). Rédiger et maintenir la documentation technique (modèles dbt, dashboards, pipelines, bonnes pratiques). Collaborer avec les équipes Data et RH (Data Product Managers, Data Engineers, métiers Talent Development, etc.). 🧠 Compétences requises Techniques CompétenceNiveau requis Tableau Confirmé dbt Confirmé SQL Confirmé Python Avancé Modélisation de données Confirmé Git / GitHub Confirmé Méthodologie Agile (Scrum, Kanban) Avancé Soft Skills Forte autonomie et sens de la responsabilité. Capacité d’analyse et regard critique sur la qualité des données. Aisance dans la communication avec des profils non techniques . Esprit d’équipe, collaboration et partage des bonnes pratiques. Orientation produit et business , avec une bonne compréhension des enjeux RH et Talent Development. 📍 Localisation & modalités Lieu : Lille Télétravail : possible de manière occasionnelle Langues : Français courant, Anglais professionnel
Offre d'emploi
Architecte Data spécialisé Databricks (F/H)
Publiée le
80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Mission freelance
Développeur Power BI Expert
Publiée le
Microsoft Power BI
3 mois
500-550 €
Île-de-France, France
Télétravail partiel
Mission Freelance – Développeur Power BI Expert – Secteur Luxe – Montreuil / Pantin (93) Pitch Dans le cadre du renforcement de son pôle Data, un grand acteur du secteur du luxe recherche un Développeur Power BI expérimenté pour accompagner la mise en place d’une stratégie BI solide et performante. L’objectif : concevoir et optimiser des dashboards à haute valeur ajoutée dans un environnement exigeant, international et orienté qualité. Missions principales Participer à la conception, modélisation et industrialisation des rapports Power BI Créer des dashboards complexes destinés aux équipes métiers (supply, performance, pilotage) Optimiser les performances des jeux de données et assurer la qualité du reporting Collaborer avec les équipes Data Engineers / Product Owners sur la gouvernance et les pipelines Documenter les solutions mises en œuvre et contribuer à l’amélioration continue des pratiques BI Stack & environnement technique Power BI (expertise obligatoire) DBT / SQL / Azure Data Services Datawarehouse & Dataflows Environnement international – collaboration avec des experts techniques Méthodologie agile
Offre d'emploi
Ingénieur(e) Production AWS
Publiée le
Agile Scrum
AWS Cloud
GitLab CI
1 an
40k-82k €
500-960 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du projet Data de l'un de nos clients, nous recherchons un Ingénieur Production Data chargé d’assurer le lien entre les environnements Infra/DevOps sur AWS et les plateformes Big Data, en coordination avec l’architecte cloud, le tech lead et les data engineers. Missions principales : Administration et exploitation de la plateforme Data : Assurer l’administration des composants clés de la plateforme Data (Dataiku & CloudBeaver) Garantir la disponibilité, la performance et l’évolution des environnements d’analytique et de data science. Accompagner les utilisateurs dans la mise en œuvre des bonnes pratiques et l’industrialisation des projets métiers. Evolution et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagnement utilisateurs sur les best practices et l’industrialisation des projets métiers. Support et expertise technique : Prise en charge de la résolution des incidents affectant les environnements Data. Apporter un appui technique aux équipes internes sur les choix d’architecture et d’implémentation. Réalisation des audits techniques, analyses de performance ou preuves de concept afin d’optimiser les solutions existantes. Évolution et modernisation de l’infrastructure : Évaluation de l’existant et proposition d'une trajectoire de modernisation vers des architectures cloud natives. Intégrer les pratiques DevOps (Infrastructure as Code, CI/CD, automatisation) et FinOps dans les nouveaux déploiements. Conception et implémentation de nouveaux schémas d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel).
Offre d'emploi
Consultant BI / Data ANALYST (Cognos , SQL , Snowflake , ETL/ELT ) (H/F)
Publiée le
BI
Cognos
Microsoft Power BI
12 mois
40k-45k €
400-550 €
Paris, France
Dans le cadre de la modernisation de son écosystème Data, notre client déploie une nouvelle plateforme basée sur Azure , intégrant Snowflake et Power BI . Ce projet s’inscrit dans une démarche globale de transformation visant à migrer un volume important de rapports existants provenant d’un ancien environnement on-premise (Datawarehouse + Cognos) vers une infrastructure Cloud plus performant Contexte Dans le cadre de la mise en place d’une nouvelle plateforme Data sur Azure, intégrant Snowflake et Power BI , notre client du secteur bancaire lance un vaste chantier de migration de l’ensemble de ses rapports existants depuis une plateforme on-premise (Datawarehouse + Cognos) vers ce nouvel environnement Cloud. Environ 250 rapports ont été identifiés comme prioritaires. Ils sont principalement utilisés au quotidien par les équipes métiers (recouvrement, fraude, contrôle interne, etc.) via un portail interne. Ces rapports étant essentiels à l’activité opérationnelle, l’objectif est de les reproduire à l’identique , sans refonte fonctionnelle, pour respecter les échéances fixées à août 2025 . Les choix finaux concernant le modèle (datamarts dédiés, vues sur datamart global, etc.) et l’outil de restitution sont encore en cours de définition, et le consultant pourra contribuer à ces orientations. Mission Vous participerez à la reconstruction des rapports sur la nouvelle plateforme Data. Vous travaillerez en étroite collaboration avec deux experts internes (Datawarehouse & Cognos). Vos principales responsabilités :1. Analyse des rapports Cognos existants Étude des frameworks, champs, règles de gestion, filtres et logiques de calcul. 2. Recréation des rapports dans Snowflake / Power BI Construction des couches nécessaires dans Snowflake avec les Data Engineers / Analysts. Création éventuelle de dashboards Power BI (cas limités). 3. Validation et contrôle de qualité Comparaison des résultats Snowflake avec les rapports Cognos. Investigation des écarts avec les référents internes (métier, Data Office, DSI). 4. Documentation Documentation des tables/vues créées (Excel pour alimenter Data Galaxy). Définition et rédaction de la documentation fonctionnelle liée aux rapports.
Mission freelance
Data Scientist / GenAI /LLM
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Mission freelance
Développeur Full-Stack Python / Angular
Publiée le
Angular
Django
Flask
1 an
400-660 €
Île-de-France, France
Télétravail partiel
Contexte : Le poste s’inscrit au sein d’une équipe de développement transverse, rattachée à la direction des solutions à livraison rapide. Cette équipe de 20 personnes regroupe des Data Engineers, Data Scientists et Développeurs Full-Stack. Elle conçoit et met en œuvre des outils innovants en lien direct avec les métiers, dans un environnement dynamique et collaboratif. L’équipe a pour mission de : Développer des outils tactiques en proximité directe avec les métiers. Accompagner l’industrialisation de ces solutions au sein des environnements applicatifs existants. Soutenir les métiers dans la mise en œuvre de cas d’usage d’IA générative. Réaliser une veille technologique et des études d’opportunité pour proposer des solutions innovantes. L’ambiance d’équipe est un point fort : jeune, proactive et solidaire. Le profil recherché devra être à la fois techniquement compétent et doté d’un excellent relationnel (communication, esprit d’équipe, autonomie, curiosité et force de proposition). Mission principale : Concevoir et développer des applications web complètes (frontend et backend) permettant : L’exploitation de données complexes au travers d’interfaces ergonomiques. La réalisation d’applications « commando » destinées à répondre rapidement aux besoins métiers. Responsabilités : Concevoir et développer des applications web avec Python (Django, Flask) côté backend. Créer des interfaces dynamiques et réactives avec Angular (ou équivalent React/Vue.js). Intégrer et consommer des API RESTful entre le front et le back. Collaborer avec les équipes design et produit pour une expérience utilisateur fluide. Garantir la qualité du code (tests unitaires, fonctionnels, revues de code). Participer à la documentation et à la mise en place de bonnes pratiques de développement. Interagir directement avec les métiers pour recueillir, comprendre et challenger les besoins.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
233 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois