Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 777 résultats.
CDI

Offre d'emploi
Chef de projet Data & BI H/F

Publiée le
IDT

39k-45k €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Senior Data Scientist

Publiée le
ADFS
Analyse financière
Azure

6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
CDI

Offre d'emploi
Data Engineer Expert Elastic Stack - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Freelance
CDI

Offre d'emploi
Data Analyst BI H/F

Publiée le
Business Intelligence
Business Object
ETL (Extract-transform-load)

36 mois
50k-60k €
450-550 €
Hauts-de-Seine, France
Télétravail partiel
Amago IT recherche dans le cadre d'une prestation de longue durée pour l'un de nos clients dans le secteur Assurance basé dans le 92 : un Data Analyste BI H/F Missions : · Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions pour répondre aux besoins internes. · Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. · Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. · Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. · Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. · Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. · Assistance aux utilisateurs pour les autonomiser. Aide à la gestion du changement.
Freelance
CDI

Offre d'emploi
Data Scientist Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Freelance

Mission freelance
Architecte Cloud & On-Premises (anglophone) – Expertise FinOps

Publiée le
Architecture
Azure
Cloud

12 mois
Paris, France
Télétravail partiel
Bonjour, Nous recherchons pour notre client grand compte un Architecte Cloud & On-Premises anglophone , intervenant sur l’optimisation des coûts d’un environnement multi-cloud et d’infrastructures on-premises. Nous étudions – prioritairement – les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité Tarif journalier Merci d’indiquer la référence KTR/FIN/4975 dans l’objet de votre message La prestation consiste à optimiser les coûts Cloud et On-Premises dans un environnement multi-cloud global, en produisant des rapports détaillés, en mettant en œuvre la gouvernance, en soutenant les équipes internes et en fournissant des recommandations structurées. . Gouvernance Cloud & On-Premises Contribuer à la définition de la gouvernance pour les environnements Cloud et On-Premises. Participer à la mise en œuvre opérationnelle de cette gouvernance. 2. Production et amélioration des rapports Cloud & On-Premises Produire des rapports pertinents sur la consommation et les coûts Cloud & On-Premises. Améliorer en continu ces rapports pour les rendre exploitables par le management. Fournir des rapports permettant de piloter la conformité, la consommation et les coûts. 3. Collaboration avec des équipes transverses globales Collaborer avec des équipes multifonctionnelles basées dans plusieurs pays. Comprendre leurs besoins et contribuer à l’analyse des données. Établir des partenariats de travail permettant d’atteindre des résultats FinOps tangibles. 4. Support aux équipes Infrastructure & Operations (I&O) Accompagner les équipes I&O dans la définition d’objectifs et de KPI pertinents. Participer à la récupération, structuration et modélisation des données nécessaires au pilotage des coûts. 5. Cartographie des flux de données Cartographier, avec les équipes I&O, les flux de données relatifs aux environnements Cloud et On-Premises. Aider à construire un modèle de données supportant les travaux FinOps. 6. Analyse et prévision des coûts d’hébergement Analyser les coûts d’hébergement Cloud & On-Premises. Élaborer des prévisions (forecast) pour anticiper l'évolution des dépenses. 7. Recommandations d’optimisation Formuler clairement des recommandations d’optimisation des coûts. Accompagner et suivre la mise en œuvre de ces recommandations. 8. Appui à la prise de décision via les données Utiliser des outils et technologies permettant des décisions data-driven. Contribuer à l’amélioration de la capacité analytique et du reporting FinOps. 9. Contribution aux projets et programmes Aider projets et programmes à réaliser des estimations de coûts. Construire et formaliser des modèles de coûts et de financement. Contribuer à l’élaboration de business cases internes.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps Big Data (H/F)

Publiée le
Ansible
Apache Kafka
Cloudera

1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Freelance

Mission freelance
Chef de Projet Data Migration – Projet d’intégration S/4HANA

Publiée le
SAP

6 mois
Marne, France
Télétravail partiel
Contexte: Notre client, un acteur industriel majeur, engage un projet d’intégration ambitieux visant à remplacer tout ou partie de ses systèmes sources par l’ERP S/4HANA. Dans ce cadre, nous renforçons l’équipe Migration avec un profil expérimenté pour piloter les activités et la production des livrables sur un domaine fonctionnel ciblé. Environnement technique: S/4HANA, outils de migration (ex: SAP Data Services, LTMC), suites de tests (SAP TAO, SolMan). Type de contrat: Freelance (via ZENITH). Poste ASAP
Freelance
CDI

Offre d'emploi
Business Analyst Data Management - Nantes

Publiée le
Business Analyst
Data management
JIRA

1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
CDI

Offre d'emploi
Architecte Data & IA H/F

Publiée le

75k-90k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : g2fqzc6m6z
CDI

Offre d'emploi
Data Analyst - QlikSense

Publiée le
Microsoft Power BI
Qlik Sense
Tableau software

45k-60k €
Levallois-Perret, Île-de-France
Télétravail partiel
La mission se déroulera au sein de l'équipe Analytics End to End de la Direction Data de BNPP Personal Finance. Cette équipe a pour responsabilité de construire et maintenir des outils de pilotage à disposition des équipes métiers. Nous accompagnons également l'ensemble des équipes analytics dans leurs pratiques data et BI sur les plateformes data mis à dispositions par l'équipes Analytics Platforms avec laquelle nous travaillons en étroi collaboration. La mission nécessite des compétences fonctionnelles et techniques avancées sur QlikSense pour développer pour le métier des dashboards mais aussi pour gérer les montées de version QlikSense et accompagner l'équipe Analytics Platform Dans le cadre des projets ou maintenances évolutives et en relation avec la direction Métier à l'origine du besoin et son patrimoine IT correspondant, les principales missions de la prestation sont : - Analyser et challenger les besoins - Modéliser la solution cible - Développer le socle de données et développer les dashboards - Apporter du support et accompagner les utilisateurs finaux Dans le cadre des montées de versions de QlikSense, les attendus sont : - Cadrage et pilotage du projet - Identifier les contributeurs et définir l'organisation - Construction et suivi du planning - Réaliser les TU et TNR - Mise à jour de la documentation Des compétences sur Tableau et PBI seraient un plus.
Freelance
CDI

Offre d'emploi
Chef de projet Data

Publiée le
Business Object
Microsoft Power BI
Shell

1 an
Paris, France
Pour un client du secteur bancaire , nous recherchons un Chef de Projet Data avec 8 à 10 ans d’expérience . Démarrage ASAP – URGENT Compétences clés Connaissance du domaine Finance Expérience bancaire Power BI, Business Objects, Shell Missions principales Pilotage et coordination de projets Data / BI Encadrement et coordination d’équipes techniques Recueil et analyse des besoins métiers Suivi des développements, gestion des risques, planning et reporting Animation des comités et communication projet Garantie de la qualité des livrables (SFG/SFD, tests, MEP, documentation)
Freelance

Mission freelance
Consultant SIRH Data / Chef de Projet MOA - Paris (H/F)

Publiée le
Microsoft Fabric
MOA
PLEIADES

6 mois
630-700 €
Paris, France
Télétravail partiel
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)

Publiée le
Agile Scrum
Ansible
Cloud

1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Freelance

Mission freelance
POT8806 - Un Architecte Data sur Massy Palaiseau

Publiée le
Architecture

6 mois
Massy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Architecte Data sur Massy-Palaiseau. Besoin : Au sein d’une équipe pluridisciplinaire client, composée d’un chef de projet à la DPT, de fonctions DSI (architect cloud, digital factory …), d’architectes d’entreprises DSI et métiers, de data managers, l’objectif de la prestation sera : Proposer une architecture de data platform (potentiellement plusieurs) respectant la sensibilité des données Si plusieurs data platforms, celles-ci devront être interopérables et équivalentes en termes de fonctionnalités. Identifier la logique d’organisation des données et préciser les conditions (données entrantes) pour une utilisation finale optimale et au niveau attendu par les opérationnels. Idéalement, étudier la possibilité d’avoir un moyen (interface ? ) unique pour les requêtes de data sets. Proposer une logique projet « built » et le « run » associé, c’est dire l’ensemble du processus Proposer une gouvernance adaptée (qui, comment, accès, outputs, temporalité etc. ) Proposer une stratégie de documentation et une trame. Le client souhaiterait avoir un accompagnement externe d’un data architect confirmé. La proposition devra prendre en compte les éléments suivants : Connaissant le cloud AWS et l’architecture de platform on Premise Connaissance des pratiques d’urbanisation des applications (Fiche d’identité/Fact sheet, Cartographie des flux) Très bonnes compétences SI générales. Capacité à animer des comités de pilotage Capacité à travailler avec autonomie, à solliciter avec discernement les parties prenantes et à animer des échanges. Un savoir-être orienté vers la proactivité, la communication et la capacité à questionner les usages lorsque nécessaire. Anglais (obligatoire – échanges avec l’Inde) Prestation Attendue : Il est attendu du prestataire une assistance : Une architecture détaillée de data platform répondant aux besoins opérationnels et aux contraintes de sensibilité des données Un plan de mise en œuvre de cette architecture (feuille de route détaillant les étapes, la mobilisation des acteurs à solliciter, les relais associés, l’accompagnement au changement, le processus) Une proposition de gouvernance pour l’alimentation et l’utilisation des données. Comptes rendus de réunions et décisions prises lors des instances de gouvernance (Comités de suivi, Ateliers d’arbitrage) Suivi des sollicitations / réponses obtenues KPI d’avancement et de performance L’animation de la campagne sera animée en autonomie avec les sachants et donneront lieu à un suivi d’avancement. Le prestataire veillera à respecter le cadre de mis en œuvre définit par l’encadrement du chantier. Localisation : Massy Palaiseau + TT
2777 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous