L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 375 résultats.
Offre d'emploi
Senior data engineer H/F
Publiée le
55k-63k €
Neuilly-sur-Seine, Île-de-France
Au sein de la DSI, l'équipe Data (10 personnes) joue un rôle central dans la valorisation des données de l'entreprise. Vous rejoignez le pôle Solutions Data, pour contribuer à la mise en œuvre et à la maintenance du Système d'Information décisionnel. Vos missions sont les suivantes : Participer à la conception et au développement de projets data innovants Assurer le maintien en conditions opérationnelles (MCO) des bases, applications et flux de données existants Collaborer avec les équipes Métiers pour analyser et traduire les besoins fonctionnels en solutions techniques Contribuer à l'amélioration continue de la plateforme data (processus, outils, qualité des données) Documenter les développements et assurer un transfert de compétences auprès de l'équipe Data
Mission freelance
CONSULTANT(E) MOA BI EXPERIMENTE(E)
Publiée le
BI
MOA
24 mois
325-650 €
Paris, France
Télétravail partiel
Descriptif détaillé de la mission : ➢ Identifier, analyser et comprendre les besoins métier, problématiques à résoudre et opportunités à concrétiser. ➢ Conseiller et assister les équipes métier dans la priorisation, la formalisation des besoins et de la recette, les problématiques et les opportunités. Être le référent du métier. ➢ Coordonner les parties prenantes métier et techniques, et accompagner le changement associé (y compris la transition en RUN). ➢ Identifier et proposer, en étroite collaboration avec les équipes Solutions et Business Applications, les solutions data ou reporting qui permettent d'y répondre. ➢ S'assurer que le delivery correspond aux besoins du métier ➢ Contribuer à la documentation de la solution. ➢ Être force de proposition sur les opportunités d'améliorations des solutions. ▪ Environnement technique de la mission : ➢ SSIS / SQL SERVER ➢ IBM COGNOS ➢ TABLEAU ➢ AZURE ▪ Date début de mission : ASAP ▪ Durée estimée de la mission : 3 mois (renouvelables)
Offre d'emploi
DATA ANALYSTE Communication Digitale
Publiée le
Transformation digitale
18 mois
40k-45k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE La prestation se déroulera pour le compte de la direction de la communication digitale pour conduire les analyses quantitatives et qualitatives relatives à la réputation sur les réseaux sociaux et le web. MISSIONS : Cette prestation aura pour objectif de : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe Expertises demandées pour la réalisation de la prestation : - Une expérience d’au moins un an dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences similaires, en social listening. Une maîtrise préalable avancée d’outils de social listening est attendue. La maîtrise de Talkwalker sera très appréciée. Une expérience extensive avec X Pro (Tweetdeck) constitue un avantage pour la prestation, de même que des connaissances dans l’utilisation de Gephi et d’outils d’IA générative. - Des expériences en matière d’études réputationnelles et de marketing d’influence, ainsi que la maîtrise d’outils de recherche et d’analyse de profils d’influenceurs, constituent un avantage fort pour la prestation. - Une excellente aisance rédactionnelle est nécessaire. - Des connaissances étendues sur les sujets sociétaux, politiques, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Offre d'emploi
Data Engineer - Nantes
Publiée le
ETL (Extract-transform-load)
Informatica
Semarchy
40k-43k €
Nantes, Pays de la Loire
Nous recherchons un Ingénieur Data / Développeur ELT en CDI, passionné par la manipulation de données et les environnements analytiques. Vous participerez à la conception, l’alimentation et l’optimisation de nos flux de données stratégiques. vos missions : Concevoir, développer et maintenir des flux d’intégration de données. Participer à l’architecture et à l’industrialisation des traitements ELT/ETL. Travailler sur des environnements manipulant de très gros volumes de données. Collaborer avec les équipes métiers et techniques pour garantir la qualité et la cohérence des données. Optimiser la performance des requêtes et des pipelines de données.
Mission freelance
Business Analyst / Développeur Interfaces (SQL / API / BI)
Publiée le
.NET
API
PowerBI
3 mois
320-550 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Business Analyst orienté Data & Reporting pour intervenir sur des projets financiers. Votre rôle sera de développer et maintenir des interfaces entre différents systèmes (XDM, XDI, Xdit), assurer la MCO des applicatifs (gestion des tickets), et répondre aux besoins des utilisateurs. Vous participerez également aux évolutions techniques définies par le chef de projet, incluant des développements sur .NET et API. Une expertise en SQL et outils BI (QlikSense, Power BI) est indispensable.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
Consultant technique Cognos BI
Publiée le
BI
Cognos
24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT MOE COGNOS BI Descriptif détaillé de la mission : ➢ Développement et maintenance évolutive des solutions BI et de reporting en relation avec les équipes AMOA BI, Data BI, IT et des keys-users. ▪ Centralisation et analyse des besoins exprimés ▪ Conception et modélisation de solutions BI ▪ Evolution des rapports et packages, & éventuellement des traitements d'alimentation. ▪ Rédaction de documents/spécifications techniques. ▪ Environnement technique de la mission : ➢ +++++COGNOS BI 11 (Framework Manager, Report Studio, Transformer) ➢ +++SQL SERVER 2016 - 2019 ➢ ++Microsoft SSIS ➢ +Tableau Desktop, Tableau Prep, Tableau Server
Mission freelance
CONSULTANT MOA BI - EQUIPEMENT
Publiée le
BI
MOA
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
AMOA BI - Equipement - GMAO MISSION l'AMOA BI est le point d'entrée de la DSI pour toute demande de BI sur les Solutions Equipement. Il fait l'interface entre les interlocuteurs Métier les équipes BI de développement et l'équipe Solution équipement. Son rôle est de comprendre les enjeux et besoins Métier en coordination avec l'AMOA BI pour les spécifier aux équipes de développement. Dans le cadre de la Roadmap BI le Référent fonctionnel BI devra notamment : • Travailler en étroite collaboration avec les équipes équipement pour spécifier l'extraction des données Maximo servant aux KPI Métier (utilisé dans Power BI) • Préparer le modèle de données BI pour l'intégration des données MAXIMO (équipement). Une attention toute particulière sera apportée aux notions de site Maximo ainsi qu'à la consolidation des données. • Spécifier les traitements d'intégration à destination du pole DATA. • Identifier les dimensions de « croisement » avec les Terminaux (équipement, temps, site etc…) • Proposer et accompagner les ajustements pour le portage des rapports MAXIMO & leur version consolidé sur la source. ACTIVITES PRINCIPALES 1. Piloter les projets BI opérationnels et l'implémentation des nouveaux usages / nouvelles solutions, coordonner les parties prenantes métier et DSI, et accompagner le changement associé (y compris la transition en RUN) 2. Sous l'impulsion des équipes BI, accompagner la diffusion d'une culture Data au sein des équipes DSI et Métier 3. Contribuer à la gouvernance appropriée pour mener à bien les projets BI sur le périmètre concerné 4. Proposer, en étroite collaboration avec les équipes Solutions et BI les solutions /modèles pour consolider et croiser les données équipement 5. Participer à la rédaction des spécifications fonctionnelles aux équipes BI de la DSI 6. Réaliser les Tests d'intégration, une fois les Données & rapports BI livrés 7. Organiser les UAT avec le Métier/Solution 8. Contribuer au déploiement des nouveaux rapports équipement 9. Être le garant du delivery (coût, qualité, délai) 10. Accompagner les pays et les équipes de déploiement pour s'approprier les outils et reporting BI et opérationnel existants Conditions particulières de travail Déplacements ponctuels à l'étranger dans le cadre des déploiements, de formations, d'Université ou de cadrage de sujets à enjeux majeurs
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Mission freelance
Business Analyst Crédit (x1)
Publiée le
Business Analyst
12 mois
400-550 €
Champagne, Auvergne-Rhône-Alpes
Télétravail partiel
Intitulé Business Analyst – Domaine Crédit Mission principale Le Business Analyst Crédit est l’interface entre les équipes métiers crédit et les équipes IT afin de traduire les besoins fonctionnels en exigences exploitables. Responsabilités Recueillir et analyser les besoins métiers liés au crédit Rédiger les spécifications fonctionnelles détaillées Participer aux ateliers métiers et IT Assurer le suivi des développements et la conformité fonctionnelle Contribuer aux phases de tests et de validation Accompagner le métier dans la conduite du changement Profil recherché Expérience : Expérimenté : 4 à 7 ans Senior : +7 ans Bonne connaissance fonctionnelle du domaine crédit
Mission freelance
POT8726 - Un Expert Qualité des Données sur Paris
Publiée le
Data quality
Gouvernance
ITIL
6 mois
260-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Expert Qualité des Données sur Paris. Descriptif: En tant qu'expert Qualité des Données ServiceNow en SI, vous jouerez un rôle clé dans l'amélioration et la maintenance de l'intégrité des données au sein de notre plateforme ServiceNow. Votre ewpertise sera cruciale pour établir une fondation solide pour une meilleure gouvernance des données, essentielle à la performance et la fiabilité de nos opérations IT et R&I. Vous rejoindrez une équipe internationale existante, tout en collaborant étroitement avec diverses équipes IT et métiers de la R&I. Votre Mission & Responsabilités Clés : Identification et Cartographie des Objets ServiceNow : - Procéder à une identification exhaustive de tous les types d'objets et enregistrements critiques sur la plateforme ServiceNow impactant nos processus R&I et IT. Cela inclut, sans s'y limiter : les Groupes, les Applications, les Projets, les EPICs, les Enhancements, les Stories, les Releases, les CI (Configuration Items), les Connaissances (Knowledge Bases). - Comprendre et documenter la manière dont ces objets sont utilisés et interdépendants. Formalisation des Règles de Conformité des Données : - Définir et formaliser des règles claires et précises de conformité et de qualité des données pour chaque type d'objet identifié. Ces règles devront couvrir des aspects tels que l'exhaustivité, la cohérence, la validité et la précision des informations. Inventaire et Analyse de la Qualité des Données : - Mener un inventaire détaillé de l'état actuel des données sur ServiceNow, évaluant leur conformité par rapport aux règles établies. - Identifier les lacunes, les doublons, les incohérences et toutes les données obsolètes ou non conformes. Création d'un Dashboard de Suivi de la Qualité des Données : - Développer et mettre en œuvre dashboard dynamique au sein de ServiceNow ou via des outils de reporting. Ce dashboard devra permettre de visualiser l'état de la qualité des données, de suivre l'avancement du nettoyage et d'identifier les zones nécessitant une attention continue. - Intégrer des indicateurs clés (KPIs) de qualité des données pour une visibilité constante. - Pilotage et Suivi du Plan de Nettoyage (Clean-up) : - Élaboration d'une feuille de route pour le nettoyage des données identifiées comme non conformes ou de mauvaise qualité. - Coordonner et suivre les actions de correction avec les équipes opérationnelles et les propriétaires de données. - Assurer le reporting régulier de l'avancement du clean-up et l'efficacité des actions menées. Recommandations pour la Gouvernance et l'Amélioration Continue : - Proposer des recommandations concrètes pour l'amélioration des processus de saisie et de maintenance des données, afin de prévenir la dégradation future de la qualité. - Contribuer à l'établissement de bonnes pratiques de gouvernance des données sur ServiceNow.
Offre d'emploi
Chef(fe) de Projet Data / CDP – Activation & CRM
Publiée le
CRM
Data analysis
1 an
51k-59k €
510-580 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Chef(fe) de Projet Data expérimenté(e) pour piloter et optimiser les cas d’usage d’activation marketing et CRM dans un environnement riche en données utilisateurs. Vous interviendrez sur l’exploitation d’une Customer Data Platform (CDP) et sur la mise en place de projets transverses autour de la collecte, de l’activation et de la gouvernance de la donnée. Vos missions 1. Pilotage des besoins CRM & Activation Challenger les besoins métiers (Email & Push) et les traduire en projets Data. Créer et optimiser les segments d’audience, flux de données et collectes. Animer les points hebdo avec les équipes métiers. Proposer de nouveaux cas d’usage basés sur les features CDP et les nouvelles données collectées. 2. Gestion opérationnelle de la CDP Participer au run et à l’amélioration continue de la CDP. Créer et suivre les segments, dashboards de data quality & insights. Définir et maintenir les plans de marquage. Suivre la bonne implémentation de la collecte (recettes, correctifs). Rédiger et maintenir les documentations fonctionnelles et techniques. Assurer la coordination avec l’éditeur de la CDP. 3. Gestion de projets Data Animer ateliers, cadrages et comités de pilotage. Coordonner Data, Tech, Produit, CRM, RGPD, Marketing, Offres… Garantir l’avancée des projets, la qualité des livrables et les indicateurs de performance. Mesurer, communiquer et optimiser la performance des cas d’usage. 4. Documentation & Roadmap Rédiger les spécifications fonctionnelles, CR, supports projet. Contribuer à la roadmap et au référentiel de segments. Documenter les cas d’usage et leurs performances. 5. Amélioration continue & innovation Force de proposition sur les méthodologies projet (alertes, risques, arbitrages…). Proposition de nouveaux cas d’usage, collectes ou développements exploratoires.
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Offre d'emploi
Senior Développeur CUBE / SSAS - SSIS - SSRS
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
Île-de-France, France
Télétravail partiel
La migration de SRManager d’un modèle SSAS multidimensionnel vers un modèle Tabulaire ; La migration de la plateforme vers Microsoft Azure ; L’enrichissement fonctionnel de l’outil, incluant de nouveaux indicateurs et métriques à destination des utilisateurs métiers ; La mise en place de fonctionnalités d’alerting basées sur des événements prédéfinis (dépassement de seuils, anomalies, problèmes de données, etc.) ; Le support opérationnel au quotidien de l’outil. Le consultant interviendra au sein de l’équipe SCIS (Sales, Communication & Investment Solutions), basée à Paris. Responsabilités principales 1. Modernisation de l’architecture SRManager Migrer le cube actuel SSAS multidimensionnel vers un modèle SSAS Tabulaire ; Optimiser les modèles de données et les performances ; Adapter et migrer les flux d’intégration de données existants sous SSIS ; Reconcevoir et migrer les rapports SSRS ; Déployer l’ensemble de la solution sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.). 2. Évolutions fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par les équipes Finance, Ventes et autres parties prenantes métiers ; Améliorer la logique métier existante et les règles de calcul ; Intégrer de nouvelles sources de données et faire évoluer le modèle de données si nécessaire. 3. Mise en place d’un système d’alerting Définir les événements métiers devant déclencher des alertes automatiques ; Développer un mécanisme d’alerting automatisé (emails, tableaux de bord, notifications) ; Assurer une intégration fluide au sein de l’écosystème SRManager existant.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
2375 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois