L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 282 résultats.
Offre d'emploi
Data Engineer (H/F)(spécialisation et certification Snowflake exigées)
Publiée le
Agile Scrum
Azure
Data analysis
12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Offre d'emploi
Architecte domaine fonctionnel -Data
Publiée le
API
Architecture
Electronic Design Automation (EDA)
18 mois
20k-60k €
150-650 €
Le Mans, Pays de la Loire
Télétravail partiel
CONTEXTE Dans le cadre de l'activité architecture de domaine (Différents domaines : architecture, domaine supports IT / Domaine) dans une équipe d'une vingtaine d'architecte de domaine (fonctionnel) . cette demande concerne le domaine DATA. Des connaissances de la Gouvernance Data et des architectures Data sont demandés : Data Product, Hub de données, SID, API, EDA.... MISSIONS : L'architecte de domaine a pour missions principales - d'être l'interlocuteur architecte auprès de son domaine, pour accompagner la transformation de son domaine - accompagner les projets portés par le domaine, dans les phases étude de faisabilité pour proposer les scénarios IT - contribuer à la connaissance du domaine , sur la modélisation / cartographie du domaine, et s'assurer de la qualité des référentiels. Dans le cadre des accompagnements EF/Projets, l'architecte doit travailler sur la modélisation sur les différents plan d'architecture : métier, fonctionnel, applicatifs et techniques, doit rédiger des dossiers d'architecture pour éclairer les choix, présenter les dossiers dans des comités, et décliner l'architecture en phase projet en lien avec les différentes parties prenantes, domaines, sécurité, intégration en production. Dans le cadre de son rôle vis à vis des domaines sur lesquels il intervient, il devra produire les cartographies de son domaine sur les différents plans architecture et assurer la qualité de la documentation dans les différents référentiels entreprises, la connaissance des différents domaines de l'assurance et des métiers supports (finances, comptabilité, conformité ...) seraient donc un plus. Connaissance cadre d'architecture TOGAF, qualité rédactionnelle et de synthèse pour la rédaction des dossiers d'architecture, Capacité à travailler en collaboratif, Qualité pour présentation des dossiers Cette demande concerne le domaine Cette demande concerne le domaine DATA. Des connaissances de la Gouvernance Data et des architectures Data sont demandés : Data Product, Hub de données, SID, API, EDA....
Mission freelance
Ingénieur MLOps – Production de la chaîne d’intégration des modèles de Machine Learning
Publiée le
Docker
Kubernetes
MLOps
3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
1. Conception et Déploiement Industrialisation ML : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles de qualité des données. IaC & Reproductibilité : Gérer l'infrastructure cloud (IaC) et assurer le versioning des modèles, données (Feature Store) et pipelines (ZenML, MLflow). 2. Monitoring et Maintenance Observabilité/Alerting : Implémenter le monitoring (Drift, latence) et configurer des alertes pour les modèles 3P en production. Optimisation : Optimiser les ressources de calcul pour les modèles. 3. Collaboration et Qualité Conseil MLOps : Accompagner les Data Scientists sur les bonnes pratiques MLOps (tests, code quality). Data Quality Gates : Intégrer des validations de schémas et des "Data Quality Gates" dans les pipelines. Data Mesh : Contribuer à l'architecture Data Mesh en traitant les modèles comme des "Data Products".
Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)
Publiée le
AWS Cloud
Snowflake
1 an
40k-65k €
400-550 €
Île-de-France, France
Télétravail partiel
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
Mission freelance
Architecte solutions IA
Publiée le
AI
Architecture
1 an
France
Télétravail 100%
Pour notre client, nous recherchons un architecte de solutions possédant une solide expérience en IA pour notre client, dans le cadre d'un poste entièrement en remote ! Nous recherchons un architecte de solutions pour diriger l'architecture et la stratégie technique dans plusieurs domaines d'innovation : • Livraison de produits d'IA • Ingénierie logicielle innovante (vibecoding industrialisé) • Facilitation du développement citoyen (centre d'expertise) • Définir et communiquer la vision et les normes architecturales en matière d'IA, d'applications, de données, d'intégration et de sécurité. • Prendre des décisions relatives à l'IA au niveau des tenant (sélection des outils, résidence des données, posture de sécurité). • Développer et maintenir un guide LLM d'entreprise (sélection de modèles, gouvernance, suivi des coûts). • Rédiger des plans de référence pour l'IA conversationnelle, l'orchestration agentique et les pipelines RAG. • Traduire les besoins commerciaux en conceptions de solutions de bout en bout et guider la décomposition en services/agents réutilisables. • Concevoir Power Platform Core (environnements, DLP, connecteurs, ALM, identité et accès).
Mission freelance
Concepteur Développeur IBM DataStage
Publiée le
BI
Data governance
ETL (Extract-transform-load)
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Offre d'emploi
Architecte data engineering - Industrie H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : * Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA) ; * Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) ; * Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités) ; * Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data ; * Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques ; * Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre d'emploi
Développeur.euse IA senior
Publiée le
IA
Large Language Model (LLM)
MLOps
3 ans
50k-60k €
480-500 €
Paris, France
Télétravail partiel
Vous interviendrez en tant que développeur.euse IA dans le cadre du déploiement de projets IA stratégiques. Vous travaillerez en étroite collaboration avec le Tech Lead et le chef de projet IA pour apporter expertise technique et vision projet. Votre rôle Développement et implémentation IA · Développer des solutions IA et data en environnements de pré-production et de production · Implémenter des cas d’usage IA variés (NLP, assistants intelligents, RAG, classification, résumé, extraction) · Mettre en œuvre des pipelines IA de bout en bout (ingestion des données, traitement, modèles, évaluation) en intégrant des mécanismes de contrôle et d’amélioration continue · Faire évoluer et optimiser les solutions existantes Architecture IA, arbitrages et sécurisation technique · Contribuer aux choix d’architecture IA et data · Sélectionner, évaluer et intégrer des modèles (open source ou via API) en tenant compte des enjeux de coûts, sécurité, souveraineté et pérennité · Concevoir et industrialiser des architectures RAG (indexation, retrieval, génération, évaluation) · Participer aux arbitrages techniques et à la priorisation des sujets · Structurer, expliquer et documenter les choix techniques Coordination technique et collaboration · Travailler en étroite collaboration avec le tech lead, les développeurs et data scientists · Assurer une coordination technique fluide avec le chef de projets IA · Expliquer les sujets techniques à des profils non techniques · Contribuer à la capitalisation des connaissances via la documentation technique et les outils collaboratifs (Confluence)
Mission freelance
Expert Machine Learning Ops( Expert MLOps)
Publiée le
Cloud
IA
Kubernetes
6 mois
400-550 €
Paris, France
Télétravail partiel
Re, Une autre recherche (Machine Learning Ops) – Expert MLOps (IA / ML / LLM) | Industrialisation & Production IA 🎯 Contexte & enjeux Vous jouerez un rôle clé dans la définition et la mise en œuvre des bonnes pratiques MLOps (CI/CD, monitoring, sécurité, reproductibilité). 🛠️ Responsabilités principales · Conception, mise en place et maintien de pipelines MLOps (CI/CD, versioning des modèles et datasets) · Conteneurisation et déploiement des services IA ( Docker, Kubernetes ) · Mise en œuvre d’outils de tracking et registre de modèles (MLflow, Comet ML ou équivalent) · Industrialisation d’architectures LLM / NLP et RAG (Retrieval-Augmented Generation) · Intégration et orchestration de frameworks LLM ( LangChain, LangSmith, Semantic Kernel ) · Déploiement de solutions IA sur Cloud Provider (AWS, Azure ou GCP) · Mise en place de boucles de feedback continu (monitoring de la dérive, retraining automatique, human-in-the-loop) · Garantie de la sécurité, qualité et reproductibilité des modèles en production 🧠 Compétences requises · Minimum 3 ans d’expérience en industrialisation IA/ML/DL en production · Excellente maîtrise de Python et des librairies clés (NumPy, Pandas, Scikit-learn, PyTorch / TensorFlow) · Solides compétences SQL · Expertise CI/CD (GitLab CI ou équivalent) · Maîtrise de la conteneurisation ( Docker ) · Expérience confirmée avec MLflow ou outils équivalents · Connaissance approfondie des LLM et des architectures RAG · Expérience de déploiement IA sur le Cloud ➕ Compétences appréciées · Déploiement IA sur Kubernetes (Kubeflow, Argo) · Tests de performance, benchmarking et montée en charge · Optimisation avancée de modèles (Quantization, Distillation, Pruning, Fine-tuning / PEFT – LoRA) · Expérience en Computer Vision ou Small Language Models (SLM) · Métriques avancées d’évaluation LLM (AI as a Judge, hallucination rate, grounding score) 📍 Modalités · Présence sur site requise à hauteur de 50 % minimum · Astreintes possibles les week-ends et jours fériés 📩 Intéressé(e) ou recommandation ?
Mission freelance
Expert en gestion des accès PAM
Publiée le
Azure
cyberark
Wallix
12 mois
Lille, Hauts-de-France
Télétravail partiel
Contexte Dans le cadre de la sécurisation des accès critiques et de la transition vers un modèle Zero Trust, une expertise en gestion des accès à privilèges (PAM) est recherchée. Objectifs de la mission Concevoir, déployer et optimiser les stratégies de contrôle d'accès sur un périmètre hybride (datacenters locaux et environnements Cloud GCP et Azure). Intégrer une nouvelle solution PAM, compatible avec les outils existants ou pouvant les remplacer. Responsabilités clés Architecture & Design : Collaborer avec le Tech Lead pour définir et mettre en place une architecture PAM unifiée couvrant l'on-premise et le cloud. Déploiement Multi-Cloud : Configurer les connecteurs et coffres-forts pour sécuriser les consoles d'administration, comptes de service et accès "Break-glass" GCP/Azure. Gestion des Secrets : Implémenter des solutions pour la gestion des secrets dans les pipelines CI/CD et applications, éliminant l'usage de mots de passe en clair. Politiques de Sécurité : Définir les règles de rotation des mots de passe, déployer l'authentification multi-facteurs (MFA) et appliquer le principe du moindre privilège. Migration & Intégration : Superviser l'intégration des comptes à privilèges élevés (Admin Domain, Cloud Admin, Root) dans la solution PAM. Audit & Gouvernance : Mettre en place la journalisation des activités et l'enregistrement des sessions pour assurer conformité et détection SOC.
Mission freelance
Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff
Publiée le
Dataiku
6 mois
Malakoff, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients; Un Expert / Référent Technique – Dataiku & Braincube sur Malakoff. Environnement Technique : Plateforme Dataiku en environnement hybride : Cloud AWS (Landing Zone Safran) + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes Expertises Techniques Attendues : Très bonne connaissance des environnements Cloud AWS (S3, EC2, EKS) Maîtrise de Dataiku (DSS, Automation, API, Deployer) Connaissance du ML Ops, IA, Machine Learning et IA générative Bases solides en architecture de données & systèmes d'information Compréhension des modèles de gouvernance Data (RBAC, sécurité, RGPD) Connaissance des problématiques d’exploitation data (flux, SLA, performance) Capacité à structurer une offre de service, un plan de formation et une gouvernance Excellente qualité rédactionnelle (docs d’archi, guides, supports de formation) Capacité à concevoir un business model adapté Livrables : Offre de service documentée, intégrée dans Service Now Météo du service : KPIs incidents, demandes, faits marquants Guide de bonnes pratiques Dataiku & Braincube (standards, modèles, FAQ) Supports de formation et onboarding (slides, démos, exercices) Plan de montée en compétence (par profil) Cartographie des flux et modèles de données cibles Business model défini et validé.
Mission freelance
DEV Expert Backend Node.js
Publiée le
Datadog
Mongodb
Monitoring
12 mois
360-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Nous recherchons un expert technique Backend pour renforcer une squad stratégique dédiée à l’ Offer . Cette équipe intervient sur un composant central du système d'information (SI) digital commerce, véritable colonne vertébrale de la plateforme. Elle consolidate l’ensemble des offres produits et services (retail + marketplace) afin d’alimenter tout l’écosystème : site web, commandes omnicanales, encaissement, et autres services liés. La mission s’inscrit dans une transformation majeure du modèle d’offre : passer d’une logique centrée sur le stock en magasin à une stratégie d’offre dynamique, contextualisée en fonction de la localisation géographique et des besoins spécifiques des clients. Organisation de l’équipe 5 développeurs Backend expérimentés 1 Product Owner L’équipe présente une structure autonome, mature, orientée vers la qualité et l’amélioration continue. Enjeux techniques majeurs Volumétrie extrême : environ 20 milliards d’appels API par mois, avec plusieurs centaines de millions d’offres exposées. Performance et robustesse : indispensables et non négociables. Scalabilité et haute disponibilité : garanties essentielles. Architecture : orientée événements (Event-Driven) avec une criticité métier élevée. Culture et méthodologie – Software Craftsmanship Le Test-Driven Development (TDD) est au cœur de la démarche, avec Behavior-Driven Development (BDD) comme source d’inspiration. Application stricte de l’ architecture hexagonale . Intégration de l’approche Domain-Driven Design (DDD) dans toutes les phases de développement. Adhésion à une véritable approche agile, avec une équipe orientée vers l’amélioration continue. Exigence élevée concernant la qualité du code et sa lisibilité. Périmètre fonctionnel et livrables Une offre centrée sur le client, pilotée par zone géographique. Intégration de la disponibilité en temps réel de l’offre. Exposition d’API critiques à l’échelle du groupe. Participation active à l’évolution de l’architecture technique.
Offre d'emploi
Architecte Fabric Power BI / Data Platform
Publiée le
Azure
Data Lake
microsoft
6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU
Publiée le
12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
Mission freelance
Architecte / Direction de programme IA- AWS H/F
Publiée le
AI
AWS Cloud
Azure
6 mois
530-650 €
Malakoff, Île-de-France
Télétravail partiel
Partenariats & écosystème plateformes •Cartographier l’écosystème et identifier les bons interlocuteurs chez les éditeurs / intégrateurs. •Préparer, conduire et restituer les workshops partenaires (AWS, Microsoft, MuleSoft, Snowflake, etc.). •Évaluer les offres (agents frameA. Partenariats & écosystème plateformes •Cartographier l’écosystème et identifier les bons interlocuteurs chez les éditeurs / intégrateurs. •Préparer, conduire et restituer les workshops partenaires (AWS, Microsoft, MuleSoft, Snowflake, etc.). •Évaluer les offres (agents frameworks, orchestration, outils d’observabilité, sécurité, gouvernance, intégration SI). B. Discovery & use cases Agentic AI (génériques + aéronautique) •Animer des ateliers de discovery (métier, IT, sécurité, data, ops) pour : oDéfinir des use cases transverses (support, IT ops, knowledge assistant, dev productivity, workflow automation, etc.) ; oDéfinir des use cases aéronautiques (ex. maintenance, supply chain, engineering, flight ops, qualité, conformité, MRO, documentation technique). •Formaliser chaque use case : objectifs, périmètre, acteurs, triggers, tâches agentiques, dépendances, données, risques, critères de succès. •Prioriser via une grille valeur/risque/effort (quick wins vs “strategic bets”). C. Recommandations plateformes, architectures, trajectoire •Proposer des patterns d’architecture Agentic AI (RAG, tool-use, multi-agent vs single-agent, event-driven workflows, human-in-the-loop). •Recommander des plateformes / briques (cloud, iPaaS, API management, vector DB, orchestration, MLOps/LLMOps). •Définir la trajectoire : MVP → industrialisation, critères de passage en prod, exigences non fonctionnelles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Ça commence à bouger,non ?
- clause de NC : 2 intermédiaires et client qui cesse sa collaboration avec eux
- Freelances : qu’est-ce qui est le plus difficile au quotidien ?
- Montants Seed pour un modèle hybride (Core team + Freelances) ?
- Démission pour création d'entreprise rapide
- Société étrangère dgfip s en mele
282 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois