L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 151 résultats.
Mission freelance
Analytics Engineer – Expertise Cornerstone
Publiée le
Analyse
1 an
100-550 €
Île-de-France, France
Description de la mission Pour le besoin de mon client basé à Paris , je suis à la recherche d'un Analytics Engineer – Expertise Cornerstone Tâches Contexte : Au sein du HR Data Office, accompagner les Business Process Owners (BPO) Formation dans la définition et la création de dashboards Power BI, en exploitant les données issues de Cornerstone onDemand. Objectifs : Traduire les besoins métier en exigences claires pour la création de dashboards. Créer, mettre à jour et maintenir des dashboards Power BI pour la formation. Étudier les options de reporting Cornerstone et optimiser les reportings existants. Fournir des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes et stakeholders. Documenter les solutions mises en place. Compétences Demandées Compétences requises : Expertise Cornerstone onDemand (obligatoire) Maîtrise Power BI, DAX, Power Query Modélisation de données, publication, sécurité (RLS), refresh PBIRS Compréhension des KPIs et besoins utilisateurs Anglais professionnel Capacité à former et expliquer les dashboards
Mission freelance
Architecte Data
Publiée le
Javascript
6 mois
580-700 €
Élancourt, Île-de-France
Télétravail partiel
1. Contexte du projet Le projet concerne une application de gestion prédictive des risques fournisseurs impactant la supply chain. Cette solution vise à : Naviguer parmi les données produits et fournisseurs pour identifier les éléments à risque. Détecter et alerter en cas d’événements susceptibles d’augmenter le niveau de risque. Simuler différents scénarios (rupture fournisseur, hausse de charge, etc.) afin d’en mesurer les impacts et de proposer des actions correctives. L’application, hébergée on-premise , s’appuie sur un logiciel COTS et un modèle de facturation basé sur les VCPU/h alloués . Les données intégrées proviennent de : ERP (SAP ECC : modules MM, PP, CO, SAP BW, Oracle E-Business Suite) Applications internes (achats, procurement, BI) Sources externes (fournisseurs de rang N, données marchés, etc.) Ces chargements nécessitent un travail approfondi de préparation, transformation, contrôle qualité et corrections manuelles avant intégration. Certaines données sont sensibles (C3 business sensitive – Export Control France non restreint) . 2. Compétences techniques et fonctionnelles requises Expertise en modélisation de données , particulièrement sur les domaines achats et industrie . Connaissance approfondie de : SAP ECC (MM, PP, CO), SAP BW , Oracle E-Business Suite Ivalua , Power BI , Excel Power Query Python (notebook) , JavaScript (console Web) , VS Code , SSMS , Shell Unix , PowerShell Plateforme C3AI (console et exploration de données) Capacité à analyser, fiabiliser et enrichir la donnée , avec une approche orientée qualité et amélioration continue. Prise en main et évaluation d’outils de Data Analysis . Compétences en architecture fonctionnelle et technique . Bon niveau d’anglais (oral et écrit). 3. Missions principales Intégration et préparation de nouvelles données Identifier les nouvelles sources de données et les besoins associés. Définir et piloter les extractions à réaliser depuis les systèmes sources. Préparer, transformer et contrôler la qualité des données avant intégration. Vérifier la cohérence du modèle de données choisi. Automatiser autant que possible les traitements d’intégration et de mise à jour. Mise à jour et supervision des environnements Assurer la mise à jour récurrente des données internes et externes. Surveiller le bon déroulement des simulations et recalculer les KPIs pour vérification. Identifier et corriger les anomalies de chargement ou de qualité. Maintenir la documentation complète des flux et traitements de données. Tests, qualité et support applicatif Contrôler la qualité des livraisons logicielles. Participer aux tests de non-régression et au maintien du jeu de données de référence . Analyser les erreurs d’exécution (UI, scripts JavaScript/C3). Vérifier la cohérence des KPIs et des résultats de simulation. Pilotage et coordination technique Accompagner les équipes techniques et l’éditeur dans la compréhension des architectures et sources de données. Maintenir et intégrer le référentiel des fournisseurs de rang N. Suivre les déploiements applicatifs, upgrades, incidents et performance du run. Optimisation du runtime Suivre la consommation CPU/h via les dashboards internes. Comparer les mesures internes et éditeur, analyser les écarts. Optimiser l’allocation des ressources CPU/h en fonction de l’usage réel de la plateforme. 4. Profil recherché Expérience confirmée en architecture data , gestion de flux complexes et intégration de données hétérogènes . Aisance dans les environnements ERP et BI. Capacité à structurer, documenter et fiabiliser des processus data de bout en bout. Bon sens analytique, rigueur technique, autonomie et communication fluide avec des équipes pluridisciplinaires.
Offre d'emploi
Data analyst / expert Power BI
Publiée le
Data analysis
DAX
Microsoft Excel
1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Power BI (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible Exemples de missions à venir : Développement et optimisation de dashboards Power BI Refonte ou migration de rapports depuis d'autres outils (QlikView, Tableau, Excel...) Recueil de besoins métiers et accompagnement à la prise en main des outils Automatisation du reporting et amélioration des KPIs Mise en place de solutions de visualisation pour différents départements (finance, RH, marketing, etc.)
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Mission freelance
Chef de projet géomarketing
Publiée le
CRM
Data analysis
Data governance
12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Offre d'emploi
Ingénieur IA H/F
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Ingénieur IA H/F dans le cadre d'un CDI. En tant que "GenAI Engineer", vous serez le référent GenAI du groupe et interviendrez sur l'ensemble des aspects techniques de nos cas d'usage d'IA générative. Vous évoluerez dans un écosystème technologique moderne (Snowflake, Qlik, AWS) au service de 30 filiales internationales. Vous aurez une grande marge de manœuvre dans les solutions à mettre en place, travaillant en étroite collaboration avec les équipes métier pour accompagner la transformation digitale par l'IA. Vos missions principales Développement et architecture IA Formaliser les besoins métiers et les traduire en spécifications techniques Développer des applications GenAI ou piloter le développement par des prestataires Sélectionner les stacks techniques appropriées à chaque use case d'IA Réaliser des POC sur de nouvelles solutions d'IA générative Opérations et monitoring * Assurer l'observabilité des produits IA et la gestion FinOps * Garantir la qualité des données et l'évaluation des modèles Collaborer avec les équipes architecture, sécurité et domaines métiers Mettre en place des outils de non-régression et d'évaluation continue Innovation et amélioration continue Assurer la veille technologique sur l'IA générative et les agents Maintenir la documentation technique à jour Être force de proposition sur les évolutions technologiques Participer à la stratégie IA du groupe Compétences requises Expertises principales * IA Générative et LLM : Maîtrise des concepts fondamentaux (réseaux de neurones, transformers), familiarité avec les principaux LLM (GPT, Claude, Gemini) RAG et bases vectorielles : Connaissance approfondie des RAG, bases vectorielles (Weaviate, Qdrant), frameworks (LangChain, LlamaIndex) IA Agentic : Maîtrise d'outils (AutoGen, CrewAI, Flowise, Dify) et protocoles (MCP, A2A, ACP, ANP) Développement : Expertise Python, maîtrise SQL, connaissance des APIs et intégrations système Data Engineering : Compréhension forte des enjeux de qualité des données, expérience SGBD (Snowflake de préférence) Compétences techniques appréciées Maîtrise de services cloud d'IA : Bedrock, Azure AI Foundry Connaissance d'AWS (architecture cloud, services managés) Expérience en IA traditionnelle : TensorFlow, scikit-learn Techniques avancées de RAG : chunking, multiindex, méthodes d'inférence Outils d'évaluation : Ragas, DeepEval, frameworks de testing IA Environnement technologique Langages : Python, SQL, notions C/C++ Cloud : AWS (Bedrock, SageMaker), services IA managés Data Stack : Snowflake, PostgreSQL, SQL Server, MariaDB DevOps : GitLab CI/CD, containerisation Collaboration : ServiceNow, Monday, Qlik Cloud Analytics Environnement Cette fonction est rattachée à la DSI du groupe sous la responsabilité du responsable des solutions d'entreprise. Des déplacements ponctuels dans des filiales en France et à l'étranger peuvent être à prévoir dans le cadre des projets de déploiement IA.
Mission freelance
Directeur de Programme Data / IA
Publiée le
Cloudera
Data analysis
Data governance
12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Publiée le
Azure Data Factory
Azure DevOps
BI
12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Offre d'emploi
Business Analyst Data & Géodonnées H/F
Publiée le
API
Data analysis
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Mission freelance
Data Analyst
Publiée le
Data Lake
Data visualisation
Dataiku
2 mois
250 €
Nantes, Pays de la Loire
Télétravail partiel
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Offre d'emploi
Data Analyse H/F
Publiée le
Microsoft Power BI
12 mois
50k-60k €
500-550 €
Île-de-France, France
La prestation consistera à participer à : - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Offre d'emploi
Consultant en cybersécurité polyvalent confirmé
Publiée le
CyberSoc
Cybersécurité
Data analysis
1 an
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
🏁CONTEXTE DE LA MISSION Je recherche pour l'un de nos clients basé à Issy-Les-Moulineaux (92), un(e) Consultant(e) Cybersécurité confirmé(e) (6-8 ans d'XP environ) disposant de connaissances polyvalentes (Vuln. Management, SIEM, analyse de logs, endpoint/XDR,...), ainsi qu’une bonne compréhension des flux de données et des environnements techniques complexes. 🧾 INFOS LOGISTIQUES 🚀 Démarrage : Janvier 2026 ; ⏳ Durée : 1 an renouvelable ; 📍 Lieu : Issy-les-Moulineaux ; 🏡 Télétravail : quasi-full remote (présence requise le jeudi)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
151 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois