L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 009 résultats.
Mission freelance
Ingénieur développement Fullstack confirmé(e)
STHREE SAS
Publiée le
36 mois
Seclin, Hauts-de-France
Je recherche pour mon client, dans le cadre d'un grand projet de souveraineté nationale, un(e) Ingénieur développement Fullstack confirmé(e) (H/F) Environnement technologique : Backend : Java, Spring, Spring Boot, Hibernate Frontend : Angular (versions récentes), Thymeleaf, JSP, Javascript Bases de données : Oracle, MySQL Outils/DevOps : Git, JIRA, CI/CD, Ansible Responsabilités au quotidien : Analyse et Conception * Analyse des besoins : Participer aux ateliers de recueil des besoins avec les métiers ou les Product Owners (instructeurs) pour traduire les fonctionnalités en spécifications techniques. * Architecture : Contribuer au choix des solutions techniques et à la conception des modèles de données (Oracle). Agilité et Estimation * Poker Planning : Participer activement aux séances d'estimation de la complexité des évolutions (User Stories). * Gestion de l'effort : Mettre à jour régulièrement vos tâches en cours pour garantir la fiabilité et la vélocité d'équipe. Développement et Delivery * Documentation : Participer à la rédaction des spécifications techniques et fonctionnelles, et des documentations techniques (DAT…) * Full Stack Development : Réaliser des développements front-end (Angular) et back-end (Java / Spring Boot). Participer à la modernisation du projet. * Maintenance : Assurer la correction des anomalies et l'évolution des fonctionnalités existantes. * Qualité : Ecrire les tests unitaires et participer aux revues de code pour maintenir un haut niveau d'exigence. * Livraison : Préparer les fiches de livraison et participer aux installations en support de l'exploitation * VABF : Assurer le traitement des anomalies relevées par le client lors de la recette * Production : Assurer un support technique lors des incidents de production Profil recherché : Localisation à proximité de Lille (au moins 60% de présentiel) Au moins 3 ans d'expérience Bonne connaissance de l'environnement technique (Java Springboot, Angular notamment).
Offre d'emploi
Ingénieur OPS Senior - FLUX CFT, SECURE TRANSPORT, MQSERIES
VISIAN
Publiée le
CFT (Cross File Transfer)
IaaS (Infrastructure-as-a-Service)
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'ingénierie de Production (rôle IT OPS) pour accompagner un programme de résilience. Le projet est stratégique pour un grand groupe bancaire et s'inscrit sur plusieurs années. En fonction des spécificités, les applications sont actuellement déployées sur deux types d’infrastructure : une infrastructure legacy (machines physiques ou VM) dite "On premise". une infrastructure Cloud dédiée mise en œuvre en partenariat avec un acteur majeur du secteur IT. Il est important de noter les éléments suivants : Le candidat doit avoir une solide expérience à la fois sur la partie technique et sur la partie gestion de projet. Une forte culture infrastructure, système & réseau est indispensable avec une expérience en contribution projets côté OPS. Missions Point d'entrée au sein de l'équipe de Production sur le projet de résilience pour l'ensemble des acteurs. Déploiement d'infrastructure et d'applications vitales dans le cadre de la résilience régionale du Cash Management. Mise en place de la connectivité (Protocoles PESIT, EBICS, FTPS, SFTP / CFT / Secure Transport / MQSeries). Organisation et exécution des tests techniques de résilience inter-sites. Participation aux tests de résilience et performance applicatives. Proposition et réalisation des optimisations si opportunités (automatisation / simplification / standardisation). Documentation rigoureuse (Base de connaissances : Cartographie des flux, Service Now, Confluence, Wiki, Sharepoint, supports classiques) des procédures et dossier d’exploitation. L’ingénieur OPS intervient au sein d'une équipe mode Agile (Scrum), autonome et pluridisciplinaire, composée de ressources IT métiers (les « Dev ») et de ressources OPS, responsabilisées autour d’un ou plusieurs produits. Dans ce cadre, il : Participe à l’ensemble des rituels Agile (Sprint planning, Daily Meeting, Review, Rétro). Communique des exigences infrastructure et exploitation dans le product backlog. Participe à l’évaluation de la complexité des User Stories lors des sprint planning. Implémente les User Stories techniques et d’exploitation du Product Backlog. Réalise durant le sprint de façon autonome les tâches relatives à la production, ou bien coordonne les parties prenantes « Production Mutualisée » extérieures à l'équipe Agile pour laquelle il intervient. Déclare les obstacles (impediments) et les remonte aux bons interlocuteurs. Supporter les bonnes pratiques OPS : Assurer la montée en compétence de l’équipe Agile sur les bonnes pratiques DevOps (Profil confirmé et Senior). Sensibiliser et propager les bonnes pratiques OPS au sein de l’équipe. Faire monter en compétence les membres de son équipe sur les outils d’exploitation mis à disposition dans le cadre DevOps. Promouvoir les solutions standards ou expérimentales répondant aux problématiques de l’équipe ou orienter vers les architectes. Challenger l’équipe sur les solutions proposées en s’appuyant sur son expertise Ops. Contribuer à l'enrichissement du backlog des fonctions OPS : Remonter les feedbacks vers les équipes OPS pour identifier les prochaines fonctionnalités des composants d’infrastructure à développer. Faciliter les déploiements : Participer à la mise en place des Jalons Qualités (Quality Gates). Contribuer à la mise à disposition des ressources d’infrastructure : Anticiper les problématiques de conformité aux règles et standards d’architecture, de sécurité, de délais de livraisons et de mise à l’échelle des solutions proposées. Obtenir et gérer les ressources techniques en tant que référent. Implémenter et surveiller l’utilisation des services de production (OpStore…). Assurer la traçabilité des accès aux machines (OS, Espace de stockage, routeurs …). Tester l’exploitabilité des environnements techniques (backup/restore, accès aux données, performances…). Identifier les points de blocage Ops (flux, sécurité, réseau…) puis alerter et proposer des plans d’action. Contribuer au Maintien en Conditions Opérationnelles (MCO) du Produit : Implémenter la surveillance et la supervision des ressources d’infrastructures. Participer à l’amélioration des outils de surveillance et supervision. Communiquer l’analyse des résultats à l’équipe. Proposer des ajustements concernant les indicateurs de pilotage des produits. Veiller à la disponibilité d’une documentation d’installation et d’exploitation à jour et validée. Contribuer à la gestion des incidents. Contribuer à la gestion des problèmes (Time to fix / Time to repair - Réparation de la cause qui a généré l’incident). Appliquer les principes du continuous operations / exploitation.
Mission freelance
Ingénieur Système Senior — Active Directory, Azure, PowerShell
AMBITION Technologies
Publiée le
Active Directory
Active Directory Domain Services (AD DS)
Azure
1 an
Paris, France
Au sein du département IT Infrastructure (rattaché au Responsable Systèmes), vous intégrez une équipe en charge du RUN et de projets d'infrastructure Microsoft. Vous assurez le support N3 sur AD DS, AD CS, RADIUS/NPS, DNS, DFS et Azure, rédigez la documentation technique, participez à la conception de nouvelles solutions, migrez des environnements vers Azure et automatisez les tâches d'administration via PowerShell. Poste en hybride : 1 à 2 jours de télétravail par semaine. Secteur : luxe (atout).
Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant
WorldWide People
Publiée le
Talend
6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Mission freelance
Data Engineer Nantes/pa
WorldWide People
Publiée le
Scripting
12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Offre d'emploi
Ingénieur.e Support Applicatif N3 – e-Commerce (SAP Hybris)
Atlanse
Publiée le
API REST
DNS
Dynatrace
6 mois
45k-55k €
400-450 €
Châtillon, Île-de-France
Dans un environnement e-Commerce à forts enjeux de disponibilité et de performance, vous intervenez sur une plateforme critique basée sur SAP Hybris. Vous assurez le support applicatif N3 et contribuez à la stabilité, à la fiabilité et à l’amélioration continue du système d’information. Votre rôle Support applicatif N3 et gestion des incidents · Diagnostiquer et traiter les incidents applicatifs e-Commerce complexes (N3) dans le respect des SLA et des procédures d'escalade · Assurer la maintenance corrective N3 sur la plateforme SAP Hybris (fonctionnel et technique) · Gérer les tickets de support, de MCO et de demandes d’amélioration · Assurer le traitement des incidents et le suivi des tickets : création de la fiche, résolution et retour d’expérience · Assister les utilisateurs et métiers dans l'identification des dysfonctionnements · Effectuer le reporting quotidien des applications Analyse technique et diagnostic · Analyser les logs applicatifs (via Kibana, Dynatrace ou équivalent) pour identifier les causes racines des incidents · Réaliser des requêtes SQL pour investiguer les anomalies de données et contrôler la cohérence des référentiels · Produire des RCA (Root Cause Analysis) et post-mortems avec recommandations correctives · Intervenir ponctuellement sur des correctifs front-end mineurs (HTML, JavaScript) Exploitation et fiabilisation du service · Rédiger et maintenir les runbooks, procédures et référentiels d'exploitation · Contribuer à la gestion documentaire des applications de son périmètre en s'assurant des impacts transverses · Évaluer le niveau de service des applications et contribuer aux plans d'actions d'amélioration lorsque nécessaire · Appliquer les normes, méthodes et outils de référence définis sur le périmètre Contribution aux évolutions spécifiques · Participer à la rédaction des spécifications des applications et des échanges associés · Réaliser le paramétrage fonctionnel selon les besoins · Contribuer à la qualité des développements réalisés si nécessaire en lien avec les équipes de développement · Participer au déroulement des tests fonctionnels de ses applications avant livraison en intégration ou en recette
Offre d'emploi
Ingénieur Senior C++ / QT / Python – Simulation Scientifique
ABTEKA
Publiée le
C/C++
QT
6 mois
44k-55k €
440-520 €
Paris, France
Ingénieur Senior C++ / Python – Simulation Scientifique (CDI ou Freelance) Localisation : Paris ouest Type de contrat : CDI ou Freelance Démarrage : ASAP PAS DE SOUS-TRAITANCE SVP Contexte Dans le cadre de notre développement, nous recherchons un Ingénieur Senior C++ / Python pour intervenir sur un produit logiciel à forte valeur technologique, dédié à la modélisation, la simulation numérique et l’optimisation en environnement industriel complexe . Le projet porte sur l’évolution d’une solution stratégique intégrant : Calcul scientifique avancé Modèles physiques complexes Algorithmes d’optimisation Traitement de volumes de données importants Vous interviendrez au sein d’une équipe R&D experte sur un produit reconnu à l’international.
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Manager Plateformes et Outils Data - CDI
CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud
Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Offre d'emploi
Ingénieur QA Pytest (H/F)
CELAD
Publiée le
38k-44k €
Alpes-Maritimes, France
Activités Préparation et exécution des cahiers de tests d’intégration et de non-régression logiciels et matériels Vérification de la conformité des résultats des tests. Primo-analyse lors de résultats de tests non-conformes pour transmission aux équipes concernées (récupération et interprétation de fichiers de logs, connexion pour vérification sur les diverses interfaces liées à la solution). Force de proposition sur la création / modification des cahiers de tests. Création / rédaction de séquence de tests pour enrichir les procédures. Paramétrage des équipements de plateforme afin d’être autonome dans les diverses combinaisons de configuration à tester. Suivi et reporting des résultats de tests. Force de proposition dans la mise en place d’automatisation des tests (scripting pour automatisation simple, mise en place d’automatisations plus poussées avec d’éventuels partenaires/solutions tierces) Participation aux décisions de diffusion des nouvelles versions logicielles aux client
Offre d'emploi
Ingénieur ITOPS DevOps
VISIAN
Publiée le
Ansible
DevOps
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre ITOPS pour les applications de l'APS. Missions Build / Run : les activités de BUILD et de RUN seront à prendre en compte En BUILD : Expertise de projet et co-construction avec l'IT Métier Point d'entrée OPS dans le cadre des projets confiés Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications Création ou mise à jour des environnements Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application Mise en place de l’exploitation de l’application avant le passage en RUN Accompagnement technique et conseil Veille à l’application des bonnes pratiques, des standards du groupe
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Mission freelance
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j
BI SOLUTIONS
Publiée le
GenAI
MCP
2 ans
400-600 €
Île-de-France, France
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j Développement d’agents intelligents Le consultant interviendra sur la conception et l’amélioration d’agents basés sur des frameworks comme Google ADK ou LangChain / LangGraph. Ces agents devront être capables de comprendre des besoins métier (optimisation de contenu), d’interagir avec des sources de données et de générer du contenu pertinent et contextualisé. Exploitation de la donnée (RAG / Knowledge Graph) La mission inclut la mise en place de pipelines de données depuis BigQuery vers un Knowledge Graph. L’objectif est d’alimenter les agents avec des données structurées et fiables, dans une logique de Retrieval-Augmented Generation (RAG), afin d’améliorer la pertinence des outputs générés. Orchestration et intégration (MCP servers) Le consultant devra développer ou refondre des serveurs MCP qui servent de couche d’orchestration entre les agents GenAI et les systèmes externes. Cela permet aux agents d’accéder à des APIs, de manipuler des données et d’exécuter des actions dans l’écosystème existant. Finalité Mettre en place une IA capable de générer, enrichir et optimiser automatiquement du contenu web, en s’appuyant sur des données internes et en étant intégrée aux outils métiers. 600 e par jour
Mission freelance
Ingénieur Qualys (H/F) - 75
Mindquest
Publiée le
Qualys
Splunk
8 mois
400-480 €
Paris, France
Contexte : Dans le cadre d’un projet à périmètre étendu et sensible au sein d’un environnement international, nous recherchons un Ingénieur QUALYS pour renforcer l’équipe VOC et CCA. Le projet implique la gestion, la supervision et l’optimisation des outils de sécurité et des dashboards de suivi des vulnérabilités. Mission : L’Ingénieur QUALYS aura pour responsabilités : Être le point d’entrée principal de l’équipe VOC et CCA pour le maintien et la production des dashboards SPLUNK (standard et Studio). Analyser les vulnérabilités détectées et accompagner les équipes en charge des remédiations. Assurer la gestion du RUN quotidien, le maintien en conditions opérationnelles (MCO) des produits de sécurité et la résolution des incidents. Participer aux astreintes récurrentes selon le planning défini.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
3009 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois