Trouvez votre prochaine mission.

Votre recherche renvoie 407 résultats.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
CDI
CDD
Freelance

Offre d'emploi
Un(e) Ingénieur Système & Sécurité - Luxembourg

Publiée le
DNS
Microsoft Windows
Powershell

1 an
40k-45k €
400-550 €
Luxembourg
Télétravail partiel
Mission. CONTEXTE § Le candidat aura la charge d’administrer, maintenir et mettre à jour les différentes plateformes § Antimalware / EDR de la banque. Il sera le point de contact privilégié et le référent technique des équipes système et celles de sécurité. § Il adaptera les exclusions, les policies, les niveaux d’agressivité des fonctionnalités avancées ( IA,..) de manière optimale. § Il devra assurer le suivi avec les différents fournisseurs en anglais. § Veille technologique avancée sur les nouveautés features / paramètres permettant d’augmentant le niveau de sécurité global. 4. MISSION La mission de l’ingénieur système consiste à : § Participer au « day-to-day » § Participation aux projets § Prendre part à une équipe aux compétences vastes (Windows, VMWare, Applications tier, § Sécurité, Troubleshooting avancé) § Amélioration/fiabilisation des systèmes § Participation aux traitements des tickets Level 3 § Rédiger les documentations § Effectuer le transfert de connaissances aux équipes notamment Endpoint
Freelance

Mission freelance
Chef de projet CRM

Publiée le
Salesforce Sales Cloud

12 mois
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Chef de projet CRM pour l'un de ses clients dans le secteur de l'écologie. 🎯 Mission Rattaché·e au Pôle Produit, Data & IA et en étroite collaboration avec les équipes métiers, produit, CRM/Digital Factory et l’équipe transverse Web, le/la Chef·fe de projet CRM & Sites institutionnels pilote la feuille de route, la cohérence et la valeur d’usage de deux assets clés de la relation avec les différents publics de l’entreprise : L’écosystème CRM (principalement Salesforce) Les sites institutionnels de l’entreprise et de ses filiales Il/elle garantit la performance, la qualité et l’évolution de ces deux dispositifs, dans une logique unifiée connaissance – relation – information au service de la mission globale de l’organisation. L’objectif : faire du CRM et des sites institutionnels des leviers clés de connaissance, transparence, efficacité et engagement auprès des clients, partenaires, collectivités, citoyens et acteurs de l’écosystème. 🎼 Rôle Le/la Chef·fe de projet CRM & Sites institutionnels est : Le chef d’orchestre de la relation Client et Collectivités unifiée , via les processus et outils CRM. Le garant du bon fonctionnement, de l’évolution et de la gouvernance des sites institutionnels , en coordination avec les métiers, les développeurs et l’agence en charge du webmastering/SEO. Il/elle assure la cohérence globale de l’expérience digitale, en combinant approche data-driven , vision client 360° , qualité de l’information et excellence opérationnelle . 📌 Responsabilités principales 1. Stratégie CRM & Sites Web Exécuter la stratégie CRM en cohérence avec les priorités métiers et la stratégie globale de l’entreprise. Positionner le CRM comme socle unifié de la relation client/partenaire, de la prospection à la fidélisation. Identifier et prioriser les cas d’usage à forte valeur. Garantir la cohérence entre Salesforce et les autres briques technologiques. Définir, structurer et maintenir la roadmap d’évolution des sites institutionnels. Aligner les évolutions avec les priorités métiers, réglementaires et communication. Assurer une expérience utilisateur cohérente, fiable, inclusive et conforme aux standards d’accessibilité. 2. Pilotage & Roadmap CRM Construire et maintenir la feuille de route CRM. Piloter les évolutions fonctionnelles : backlog, arbitrages, recettes, déploiements. Superviser les projets d’intégration et d’interopérabilité avec les autres outils. Garantir la disponibilité, la performance et la fiabilité du dispositif CRM. 3. Coordination transverse des projets Web Coordonner les évolutions avec les métiers, les développeurs, l’agence de webmastering/SEO, les équipes contenu, la gouvernance. Piloter l’instruction et la priorisation des demandes. Assurer la qualité des livrables. 4. Gouvernance & Qualité Mettre en place et animer la gouvernance CRM : processus, règles de gestion, documentation. Garantir la qualité, la sécurité des données et la conformité RGPD. Suivre les KPI CRM : adoption, complétude, satisfaction utilisateurs, valeur business. Suivre et améliorer la performance des sites : qualité technique, accessibilité, conformité, continuité de service. Assurer la cohérence et la qualité des contenus, dans le respect de la gouvernance éditoriale. 5. Collaboration & Accompagnement Travailler étroitement avec les directions métiers pour comprendre les besoins et irritants. Fédérer la communauté d’utilisateurs CRM (key users, référents, ambassadeurs). Favoriser l’adoption : communication, formation, support, conduite du changement. Intégrer les retours utilisateurs dans une démarche d’amélioration continue. Coordonner les actions SEO avec l’agence. Accompagner les métiers dans la production et la mise à jour des contenus. 6. Innovation & Évolution du Produit Assurer une veille sur Salesforce, l’automatisation, la personnalisation, l’IA. Tester puis déployer les fonctionnalités à fort potentiel. Développer les synergies entre CRM, Data et Produit. Promouvoir une approche responsable et éthique de la donnée client.
Freelance

Mission freelance
Tech Lead (ML engineering)

Publiée le
MLOps

1 an
400-700 €
Paris, France
Télétravail partiel
Contexte: Vous rejoindrez une équipe dynamique dédiée au développement et à l’évolution d’une solution de prédiction d’arrivée des colis déployée à l’échelle mondiale. Au cœur d’un environnement international et exigeant, vous aurez pour mission de garantir la robustesse, la disponibilité et la performance d’un produit critique, tout en contribuant activement à son amélioration continue. Missions : Industrialisation & Run Assurer la gestion de la production au quotidien et le maintien en conditions opérationnelles de la solution. Piloter le déploiement des évolutions via des pipelines CI/CD fiables et scalables. Mettre en place et optimiser les systèmes de monitoring et d’alerting pour garantir la qualité de service. Expertise technique Intervenir en tant que référent technique sur des environnements custom complexes. Résoudre des problématiques de performance, scalabilité et optimisation sur des architectures distribuées. Polyvalence & R&D Apporter un support transversal sur d’autres produits de l’écosystème Data/ML du groupe. Participer à une démarche de veille technologique sur des sujets innovants : NLP, Deep Learning, IA générative, automatisation… Proposer de nouvelles pistes d’amélioration, d’industrialisation et d’innovation
Freelance
CDD

Offre d'emploi
Lead Consultant Machine Learning Engineering H/F

Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python

12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance

Mission freelance
Chef de Projet CRM Salesforce - (H/F)

Publiée le
Application web
BPM (Business Process Management)
CRM

12 mois
540-590 €
Paris, France
Télétravail partiel
Contexte Rattaché.e au Pôle Produit, Data & IA et en étroite collaboration avec les équipes métiers, produit, CRM/Digital Factory et l’équipe transverse Web, le/la Chef.fe de projet CRM & Sites institutionnels pilote la feuille de route, la cohérence et la valeur d’usage de deux assets clés de la relation avec les différents publics : l’écosystème CRM (principalement Salesforce) les sites institutionnels de l’entreprise et de ses filiales L’objectif : faire du CRM et des sites institutionnels des leviers de connaissance, de transparence, d’efficacité et d’engagement auprès des clients, partenaires, collectivités, citoyens et acteurs de l’écosystème. Rôle Le/la Chef.fe de projet CRM & Sites institutionnels est : le chef d’orchestre de la relation Client et Collectivités grâce aux processus et outils CRM le garant du bon fonctionnement, de l’évolution et de la gouvernance des sites institutionnels, en coordination avec les métiers, les développeurs et l’agence en charge du webmastering / SEO Il/elle assure une expérience digitale cohérente, data-driven, centrée utilisateur et orientée performance. Responsabilités principales1. Stratégie CRM & Sites Web Exécuter la stratégie CRM en cohérence avec les priorités métiers et la stratégie globale de l’entreprise Positionner le CRM comme socle unifié de la relation client/partenaire de la prospection à la fidélisation Identifier et prioriser les cas d’usage à forte valeur Assurer la cohérence entre Salesforce et les autres briques technologiques Définir et maintenir la roadmap d’évolution des sites institutionnels Aligner les évolutions avec les priorités métiers, réglementaires et de communication Garantir une UX cohérente, fiable, inclusive et conforme aux standards d’accessibilité 2. Pilotage & Roadmap CRM Construire et maintenir la feuille de route CRM Piloter les évolutions fonctionnelles : backlog, arbitrages, recette, déploiements Superviser les intégrations et l’interopérabilité avec les autres outils internes Garantir disponibilité, performance et fiabilité du dispositif CRM 3. Coordination Transverse des Projets Web Coordonner les évolutions avec les équipes métiers, l’équipe de développeurs, l’agence webmastering/SEO et les contributeurs Piloter l’instruction, la priorisation et le suivi des demandes Assurer la qualité des livrables 4. Gouvernance & Qualité Mettre en place et animer la gouvernance CRM : processus, règles de gestion, documentation Assurer la qualité, la sécurité et la conformité RGPD des données Suivre les KPI CRM : adoption, complétude, satisfaction utilisateurs, valeur business Suivre et améliorer performances techniques, accessibilité, qualité des pages et conformité RGPD des sites Garantir la continuité de service et la cohérence éditoriale 5. Collaboration & Accompagnement Travailler avec les métiers pour comprendre besoins et irritants Animer la communauté d’utilisateurs CRM : key users, référents, ambassadeurs Favoriser l’adoption : communication, formation, support, change management Intégrer les retours utilisateurs dans une démarche d’amélioration continue Coordonner les actions SEO avec l’agence Accompagner les métiers dans la gestion et la mise à jour des contenus 6. Innovation & Évolution du Produit Assurer une veille sur les évolutions Salesforce, l’automatisation, la personnalisation, l’IA Expérimenter puis déployer les fonctionnalités à forte valeur Développer les synergies entre CRM, Data et Produit Promouvoir une approche responsable et éthique de la donnée Profil recherché Expérience confirmée (7+ ans) en gestion de projets CRM Salesforce et projets digitaux (sites institutionnels) Maîtrise du pilotage transverse : métiers, développeurs, prestataires, SEO, gouvernance Compétences solides en analyse, data, qualité et performance digitale Excellente communication, capacité à vulgariser et fédérer une communauté d’utilisateurs Sens aigu de l’expérience utilisateur, de la priorisation et de la valeur d’usage Aisance en conduite du changement, pédagogie et orientation solution Curiosité, rigueur, autonomie et forte sensibilité à la qualité de la donnée
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
CDI
Freelance

Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC

Publiée le
Apache Kafka
CI/CD
Cloud

1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Freelance
CDI

Offre d'emploi
Data Steward (H/F)

Publiée le
Data governance

1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Freelance

Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos

Publiée le
Microsoft Power BI
SQL

12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Freelance

Mission freelance
Responsable Office bureautique H/F

Publiée le
Office 365

12 mois
400 €
Saint-Denis, Île-de-France
Télétravail partiel
Offre Responsable Office bureautique 1.1 Objectifs Au sein de la Direction Services Numériques aux Utilisateurs, piloté par le responsable des offres Office, cette prestation consiste à assister au quotidien le responsable d’offre Office dans la gouvernance, le pilotage et la maintenance de l’offre Office Bureautique. Elle s’appuie sur le pôle Veille pour tenir à jour une feuille de route des évolutions fonctionnelles et techniques à venir. Elle analyse ces dernières pour les proposer aux utilisateurs en fonction de leur intérêt métier tout en s’assurant de leurs conformités avec la PGSSI (Politique Générale de Sécurité des Systèmes d'Information Groupe). Elle coordonne leurs mises en œuvre en s’appuyant sur la MOE Poste de Travail pour la gestion des configurations techniques, les déploiements sur les postes de travail Windows et la MCO et sur le pôle Adoption pour l’accompagnement des utilisateurs et des métiers. Elle répond aux questions fonctionnelles et techniques posées par les utilisateurs et aux escalades du support de niveau 2 O365. Elle valorise ces connaissances en rédigeant des consignes pour les supports et en communiquant au travers de contenus rédigés par le pôle Adoption sur les médias mis à disposition (portail O365 et communautés Viva Engage). Le cas échéant, elle escalade les incidents fonctionnels à Microsoft. Les incidents techniques (déploiement et automatisation des process) sont quant à eux escaladés à la MOE Poste de Travail. Elle suit le provisionning des licences M365 pour les différents profils (usages mobilité et bureautiques) et rationalise leur utilisation dans le cadre du programme Pilot’R (libération des licences dans les cas de sans ou peu d’usage). Elle optimise et simplifie les process de demande de service avec de l’automatisation et le portail ITSM afin d’améliorer l’expérience utilisateur. Elle élabore, met à disposition et maintient des tableaux de bord pour suivre l’activité du service et simplifier les process de facturation internes. 1.2 Description détaillée des tâches qui constituent la mission Dans le cadre de la prestation, le prestataire devra réaliser ou piloter la réalisation, sans que cela ne soit exhaustif, les tâches suivantes : - Représenter l’offreur sur différents projets liés aux évolutions des usages bureautiques (BYOD, IA, etc…), - Qualification des nouvelles versions M365 Apps - Pilotage des Offres Office & amélioration des processus (reporting et automatisation) - Suivi des déploiements & études diverses - Suivi du provisionning et rationalisation des licences clients riches (Pilot’R) - Participer à la comitologie du service - Ouvrir, contribuer au traitement, suivre et clôturer les demandes et tickets auprès de notre fournisseur et partenaire Microsoft - Suivre les incidents et les demandes de l’assistance de niveau 1 et 2 en tant qu’assistance de niveau 3 ainsi que des utilisateurs dans l’outil de ticketing - Participer aux études d’impacts des évolutions des services liés au changement des produits Microsoft 365 ; - Participer à l’automatisation des processus de l’équipe - Produire la documentation technique et fonctionnelle ou les consignes nécessaires aux supports
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
Consultant·e senior Metadata & Contenus

Publiée le
Data analysis
Gestion de projet

4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Freelance
CDI

Offre d'emploi
Expert Qualité, Process & CMDB Management - Service Now

Publiée le
Automatisation
AWS Cloud
Azure

12 mois
40k-48k €
450-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission : Dans le cadre de la mise en œuvre d’une solution CMDB (gestion des actifs IT/OT, Legacy et Cloud) et de l’amélioration de l’Observabilité pour renforcer les performances, la cybersécurité, la conformité (NIS2, ISO 62443, NIST CSF, ISO 27001) et le maintien en conditions opérationnelles (MCO / MCS) de notre client final nous recherchons un Expert Qualité, Process & CMDB Management spécialisé Service Now Tâches à réaliser : 2 instances de CMDB open source (On-premise ou sur base IaaS / PaaS / SaaS) communicantes avec ServiceNow (pas d’exigence de synchro continue) et ISTAR · Prise en compte des CI côté AWS (visibilité et optimisation des ressources Cloud) · Modèle de données adapté au secteur industriel OT supportant différentes classes de CI selon criticité · Découverte automatisée (SNMP/agent), cartographie, reporting, tableaux de bord, extractions (csv/pdf), workflows de mise à jour, API d’interfaçage · Documentations complètes (DAT, DEX, manuels, procédures), support à déterminer la 1ère année au-moins durant les 6 mois à l’issue du transfert de compétences (VBAF / VSR) · Définition Gouvernance et responsabilités opérationnelles (RACI à proposer) Outils · Solutions open source à privilégier (contexte PME à ETI, autonomie à l’égard d’éditeurs commerciaux, absence de couts de redevances logicielles / licence) · CMDB : fonctionnalités ITSM recouvrant a minima ce que propose par exemple « iTop » avec possibilité d’interfaçage, adaptations à la marge (spécifique limité) · Observabilité : équivalent fonctionnel proposé par exemple par « OpenObserve », fonctions évoluées correspondant à « l’état de l’art » (standard OpenTelemetry, workflow et automatisation, dashboards interactifs, contexte et tagging avancée des ressources, disposant nativement d’une brique d’IA idéalement)
Freelance

Mission freelance
Leads Analytics, A/B tests et personalization

Publiée le
Web analytics

1 an
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail 100%
Principales activités : Analytics o Monitoring des performances globales des sites (techniques et fonctionnelles) o Recueil du besoin, création et suivi de plans de taggages Analytics en collaboration avec les équipes business, et notre agence partenaire (Tyre Dating – agence, filiale du Groupe Michelin) o Suivi de l’implémentation des plans de taggage en collaboration avec les équipes Tyre Dating et produit o Accompagnement des équipes techniques dans l’intégration de ces plans de taggage o Suivi des déploiements et recette Analytics des sites web MichelinB2C, B2B et BFGoodRich (BFG) sur la nouvelle plateforme (Apostrophe 3) o Accompagnement des équipes business dans l’analyse de la performance sur Google Analytics, Thank You Analytics, ainsi que sur nos tableaux de bord interne (Looker Studio / PowerBI) o Collecte de briefs des équipes produit et business pour des études de performance ad-hoc o Création de ces analyses, en collaboration avec les équipes internes User Intelligence & Performance (Analytics, SEO, User test) et externe (équipe CRO Tyre dating) o Suivi et coordination de l’intégration des tags media o Suivi et coordination de la mise en place et de la configuration de l’outil ThankYou Analytics A/B tests et personnalisations o Collecte de briefs des équipes produit et business o Coordination avec les équipes produit et design pour les éléments nécessitant un design ou une création graphique o Création d'A/B tests et de personnalisations via : ▪ Editeur WYSIWYG ▪ Code (Javascript et CSS) ▪ Rédaction de prompt AI o Suivi et monitoring de la roadmap des A/B tests en relation avec les équipes internes, produit et business o Interprétation et restitution des résultats d'A/B tests auprès des équipes produit et business, dont la mise en place d’un modèle de restitution et de suivi des A/B tests et des personnalisations. o Réorganisation de la configuration Michelin afin de pouvoir bénéficier des connexions et interfaces avec des outils tiers tel que Google Analytics, et Mouseflow (en collaboration avec le CSM et les équipes techniques Kameleoon) o Nettoyage régulier (idéalement annuel) de l'outil Kameleoon (segments, triggers, goals, tests et personnalisations obsolètes) et monitoring des perf techniques (impact de l’outil et des tests en création : 2016 Auteur : S BERETA D3/WA Page 2 en cours) COMPETENCES : - Expert des outils Analytics Google, principalement GA4, et idéalement GTM - Expert des outils de dashboarding comme PowerBi et Looker Studio - Expert des outils d’A/B testing comme Kameleoon ou A/B Tasty - Connaissances HTML/CSS et Javascript - Familier des outils IA et de la création de promp -Connaissance des plateformes d'analyse du comportement des utilisateurs comme Mouseflow ou Content Square - Pédagogue et à l’écoute - Anglais B2 minimum, idéalement C1 Niveau requis : Expert Contraintes particulières : - Déplacement à l'étranger (maximum /1 an en Inde) - Présence sur Site (Clermont-Ferrand ou Lyon) de manière trimestrielle
407 résultats

Contrats
1

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous