L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 682 résultats.
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
Tech lead Senior - Microservices
Publiée le
PostgreSQL
18 mois
10k-50k €
100-500 €
Limoges, Nouvelle-Aquitaine
Télétravail partiel
CONTEXTE Experience: 7 ans et plus Métiers Fonctions : Etudes & Développement, developpement Spécialités technologiques : Applications Web, Micro-services Compétences Technologies et Outils Spring BootAngular (5 ans) Java (7 ans) Soft skills Rigueur Autonomie Secteurs d'activités MISSIONS Nous recherchons actuellement un Responsable Pôle Développement / Techlead Senior pour intervenir sur une mission transverse couvrant l’ensemble d’un écosystème en architecture Front et Back basé sur des micro-services. Environnement technique Technologies utilisées : - Java - Spring Boot 3.5.3 - Angular 19.2.14 - PostgreSQL - MongoDB - Elasticsearch 8.15.0 - Apache Camel - Atomikos - Keycloak ire est un plus
Mission freelance
QA Senior (x1)
Publiée le
QA
12 mois
400 €
Champagne, Auvergne-Rhône-Alpes
Télétravail partiel
Intitulé QA Senior / Test Manager Mission principale Le QA Senior est responsable de la définition et de la mise en œuvre de la stratégie de tests afin de garantir la qualité fonctionnelle et technique des livrables. Responsabilités Concevoir la stratégie de tests globale Mettre en place et piloter l’automatisation des tests Rédiger les tests fonctionnels et IT Constituer les jeux de tests Piloter et exécuter les campagnes de tests (recette métier, TNR) Suivre et qualifier les anomalies Assurer le reporting qualité Profil recherché Expérience : Senior, +7 ans Forte expertise en pilotage et automatisation des tests
Mission freelance
Support Manager - Team Lead ( H/F)
Publiée le
Adobe Experience Manager (AEM)
3 mois
400-550 €
France
Télétravail partiel
Nous recherchons un Support Manager Lead expérimenté pour superviser et optimiser les activités de support interne liées à la plateforme Adobe Experience Manager (AEM) et au Digital Asset Management (DAM). Le rôle consiste à manager, diriger et suivre les performances globales de l’équipe support (L1 et L2) afin d’accroître l’efficacité opérationnelle, d’améliorer la qualité de service et de maximiser la performance collective. Le poste comprend également la coordination directe avec les Product Owners des différentes marques du groupe pour garantir une gestion fluide des demandes et incidents au sein de l’écosystème digital.
Mission freelance
Contact Center Operations and Customer Experience Lead
Publiée le
CICS (Customer Information Control System)
1 an
400-550 €
Île-de-France, France
Télétravail partiel
Le / la Workforce Experience Lead est en charge de définir, structurer et piloter la vision de la Workforce Experience , c’est-à-dire l’expérience de travail des équipes opérationnelles (agents de centres de contact, équipes métiers, formateurs, support, managers), dans un contexte international . Le rôle dépasse l’optimisation des outils existants. Il s’agit de repenser globalement les modes de travail en intégrant les usages digitaux et l’ augmentation par l’IA , afin d’améliorer l’expérience collaborateur, la performance opérationnelle et l’efficacité au quotidien. Le consultant intervient à la fois sur les dimensions stratégiques et opérationnelles : diagnostic de l’existant, définition de la vision cible, structuration de la gouvernance et pilotage des premières actions concrètes. Les missions principales incluent : L’analyse de l’expérience actuelle des équipes (rôles, parcours, outils, irritants). La définition d’indicateurs de référence (KPIs) liés à l’expérience et à la performance. La construction de la vision cible de la workforce experience digitale, incluant l’IA. La mise en place d’une gouvernance et de rituels au sein du modèle Digital Care. L’élaboration d’une roadmap priorisée et le lancement de premiers pilotes mesurables.
Offre d'emploi
DELIVERY MANAGER SENIOR (H/F)
Publiée le
55k-60k €
Montpellier, Occitanie
Télétravail partiel
Dans le cadre de notre développement, nous recherchons un Delivery Manager (CSM) pour renforcer notre équipe. Le poste peut-être basé à Montpellier ou La Ciotat. Idéalement, vous disposez d'une première expérience en gestion de la relation client, en accompagnement stratégique ou dans un environnement d'infogérance, vous permettant de comprendre les enjeux opérationnels et la gestion des engagements de service (SLA). Vous aurez pour principales missions : - Accompagner et fidéliser les clients : Assurer une prise en charge proactive des clients, les guider dans leur utilisation de nos produits, et répondre à leurs questions pour maximiser leur satisfaction. - Comprendre les besoins des clients : Analyser les besoins, les objectifs et les enjeux de chaque client afin de leur proposer des solutions adaptées et personnalisées. - Assurer un suivi régulier : Maintenir un contact constant avec les clients pour anticiper leurs besoins, suivre les indicateurs de satisfaction, et recueillir leurs retours afin d'améliorer leur expérience. - Développer la relation client à long terme : Instaurer une relation de confiance avec les clients pour garantir leur fidélité et encourager le renouvellement de leur contrat. - Participer aux différentes phases du cycle d'une affair e : Intervenir tout au long du cycle de vie du client, depuis les étapes d'avant-vente et de transition, en passant par les phases probatoires, jusqu'à la phase de « run » et de réversibilité, afin d'assurer une continuité optimale et une satisfaction maximale. - Résoudre les problèmes et être force de proposition : Travailler en collaboration avec les équipes internes (technique, ventes) pour résoudre les éventuels problèmes et contribuer aux améliorations produit. - Identifier les opportunités de croissance : Détecter des opportunités d'upsell et de cross-sell, et collaborer avec les équipes commerciales pour proposer des solutions additionnelles. - Préparer et animer les comités de pilotage et comités stratégiques : Organiser des comités de pilotage et des comités stratégiques avec les principaux décisionnaires des comptes. Vous devrez préparer les supports de présentation, d'analyser les résultats, de proposer des plans d'action, de conduire des échanges pour garantir la satisfaction client et aligner la stratégie avec leurs objectifs. Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 9f8ee5cfrm
Offre d'emploi
Product Owner
Publiée le
BI
Data Warehouse
12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Développeur Full Stack C#/REACT (8 ans et plus)
Publiée le
.NET
.NET CORE
React
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : • Travail sur tous les niveaux de la pile logicielle, en particulier web. • Conception des systèmes capables de traiter un volume de donnée élevé. • Conception, implémentation et soutenance des systèmes évolutifs et tolérants aux erreurs afin de minimiser l’impact des défaillances sur les utilisateurs. • Mise en place d'une architecture orientée vers les web services. • Travail en collaboration avec des personnes issues de différents domaines de l'IT. 🤝 Les objectifs seront de : 1. Construire les API et le back qui servent à l'application tant pour le Front que pour les leins avec les applications externes. 2. Construire les écrans et l'UX (Front) en respectant les maquettes et en implémentant les règles de gestion définies. 🤝 Taches de la mission: • Développement full stack. • Solutions complètes clés en main. • Écriture de code, maintien et explication. • Monitoring et troubleshooting. • Wireframes/mockups pour tests utilisateurs en itération. • Suivi de développement et mise en production en mode agile • Structure des données/algorithmes • Méthodologie de développement Agile / Code First / API
Offre premium
Mission freelance
Ingénieur senior IAM / PAM - Migrations
Publiée le
Migration
9 mois
550-800 €
Londres, Angleterre, Royaume-Uni
Télétravail 100%
Aspects techniques des migrations OIM / SafeGuard / OneLogin vers SailPoint / CyberArk / EntraID. Vous intervenez sur un projet de migration de solutions IAM/PAM avec une approche progressive et en coexistence. Vous participez aux travaux techniques de migration vers SailPoint, CyberArk et Entra ID, sur un périmètre d’environ 25 000 identités. Vous contribuez à la définition et à la mise en œuvre des solutions, en lien avec l’équipe projet, et travaillez en collaboration avec les équipes sécurité et infrastructure. La mission est orientée projet, avec une part ponctuelle de gestion d’incidents liés aux phases de migration.
Mission freelance
GESTIONNAIRE D'APPLICATION -PEGASE ADP -PAIE Expert (>10 ans)
Publiée le
ADP
Sage Paie
12 mois
550-590 €
Châtillon, Île-de-France
Télétravail partiel
Description détaillée : Gestionnaire application ADP Pégase / Expert paie Gestion des relations et réclamations avec les organismes sociaux pour les PDV Rédaction des réponses/courriers aux organismes avec maîtrise du formalisme institutionnel Gestion des relations et réclamations avec les PDV, Adhérents, comptables ou gestionnaires paie Création de dossiers dans l'application de paie Pégase (établissement et salariés) Accompagnement des PDV dans le paramétrage paie et démarrage première paie Connaissance de l'application de Paie ADP Pégase indispensable Expérience paie d'au moins 10 ans en gestionnaire paie ou 5 ans en responsable d'un centre de services paie Être force de proposition pour une amélioration continue du service rendu aux PDV (identification sujets webinar, mise à jour de fiches solution, …) Capacité rédactionnelle permettant notamment de réaliser une lettre mensuelle Actualités Paie et maîtrise du pack office indispensable. Définition du profil MISE EN ŒUVRE DU SYSTÈME D'INFORMATION Peut être amené à participer à la rédaction des spécifications des applications et des échanges associés de son périmètre Peut être amené à effectuer du paramétrage fonctionnel S'assurer de la qualité attendue des développements réalisés si nécessaire avec la contribution de Dev Factory Peut participer au déroulement des tests fonctionnels de ses applications avant livraison en intégration ou recette MAINTIEN EN CONDITIONS OPÉRATIONNELLES (MCO**) DU SI Assiste les utilisateurs et métiers dans l'usage de l'application et l'identification des dysfonctionnements Assure le support niveau 3 pour la résolution d'incidents (dans le respect des Contrats de Services et du Plan Qualité) Assure la gestion des tickets de MCO (Assistance, MCO, Améliorations, ?) Assure le traitement des incidents et le suivi des tickets : création de la fiche d'incident, résolution de l'incident et Rex sur l'incident Assure le reporting quotidien des applications QUALITÉ DU SI (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI?) Applique les normes, méthodes et outils de référence définis au sein du domaine ou de la Direction de référence Contribue à la gestion documentaire des applications de son périmètre (même si cette documentation est centralisée par un tiers) en s'assurant des impacts transverses Évalue le niveau de service des applications de son périmètre et s'assure de la mise en place des plans d'actions d'amélioration lorsque nécessaire. Les livrables sont Supports de présentation de la chronologie de démarrage 1ère paie Tableau d'avancement et suivi de l'accompagnement PDV Réponses/courriers aux organismes sociaux Compétences techniques PEGASE ADP - Confirmé - Impératif Paie - Expert - Impératif
Mission freelance
Data Analyst - Power BI Montpellier
Publiée le
Microsoft Power BI
12 mois
450 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst - Power BI" pour un client dans le secteur de l'Energie Description 🎯 Contexte de la mission Dans le cadre de la consolidation et du développement des outils de pilotage métiers , l’entreprise recherche un Data Analyst Power BI confirmé afin de garantir la performance, la fiabilité et l’évolution de ses tableaux de bord stratégiques. L’objectif : assurer la maintenance en condition opérationnelle (MCO) des rapports critiques, développer de nouveaux tableaux Power BI et contribuer à l’amélioration de la qualité des données. ⚙️ Rôle et responsabilités Intégré(e) à l’équipe Data et en lien direct avec les directions métiers, le Data Analyst aura un rôle clé dans la valorisation des données et la fiabilité des indicateurs . Vos missions principales : Assurer le MCO des tableaux Power BI critiques : supervision, rafraîchissement, vérification des sources et résolution d’anomalies. Concevoir et déployer de nouveaux tableaux de bord Power BI répondant aux besoins métiers (performance, ergonomie, fiabilité). Analyser et comprendre les besoins métiers variés, formaliser les règles de gestion et traduire les demandes en solutions concrètes. Identifier les anomalies de données et sensibiliser les métiers à la qualité et à la cohérence des informations. Collaborer avec les équipes techniques (AWS, Dataiku, Power Platform) pour améliorer les flux de données et la gouvernance . Documenter les processus, les évolutions et les incidents afin d’assurer la traçabilité et la continuité des projets. Produire les reportings d’avancement et suivre les demandes dans Jira.
Mission freelance
Architecte SI
Publiée le
Data analysis
IA
1 an
400-650 €
Paris, France
L’Architecte SI intervient en amont et tout au long des projets pour aider les équipes à penser les architectures cibles, assurer l’alignement avec le SI existant et garantir la cohérence globale des solutions déployées. Il travaille en étroite collaboration avec les équipes projet et s’inscrit dans un cadre de gouvernance nécessitant une validation, notamment sur les sujets structurants. Le périmètre principal porte sur l’architecture SI applicative. Des compétences complémentaires en architecture infrastructure, réseau, data ou IA sont appréciées, mais la data et l’IA restent prioritairement pilotées par l’équipe interne. Le profil recherché dispose d’une solide expérience en architecture des systèmes d’information, d’une capacité à dialoguer avec des interlocuteurs variés et à apporter une vision claire, pragmatique et structurante aux projets.
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Offre d'emploi
Ingénieur développement Full Stack / Angular - secteur Militaire H/F
Publiée le
40k-45k €
Massy, Île-de-France
Contexte de la mission : Dans le cadre de projets stratégiques dans le secteur de la défense, nous recherchons un Ingénieur Développement Full Stack Java Angular H/F.Vous serez responsable de la conception et du développement d'applications web full stack, depuis l'analyse des besoins et la rédaction des spécifications jusqu'à l'intégration, la validation et le soutien aux essais, dans un environnement exigeant de systèmes embarqués et d'intégration au sein d'architectures de défense complexes (capteurs, systèmes de mission, centres de commandement). Vos responsabilités : - Concevoir et développer des interfaces utilisateur modernes et réactives avec Angular (composants, services, routing, RxJS) en suivant les spécifications ; - Développer des API REST et des services backend robustes en Java (Spring Boot, Spring MVC, Spring Data JPA) ; - Concevoir et optimiser des bases de données PostgreSQL (requêtes SQL, indexation, procédures stockées, gestion des performances) ; - Rédiger les dossiers de conception technique, fiches de tests et rapports de validation - Participer à la réalisation des environnements de développement et effectuer les tests unitaires et d'intégration (JUnit, Jasmine, Karma) ; - Analyser les résultats, identifier et corriger les anomalies telles que problèmes de performance, fuites mémoire, erreurs de traitement ; - Collaborer étroitement avec les équipes UX/UI, DevOps et métier pour assurer une intégration optimale.
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2682 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois