Trouvez votre prochaine offre d’emploi ou de mission freelance Web service
Votre recherche renvoie 499 résultats.
Mission freelance
Ingénieur Logiciel Senior Java (Expert Paiements)
Nicholson SAS
Publiée le
Apache Kafka
API
API REST
6 mois
500 €
France
Mon client, un acteur de référence dans le secteur des services financiers et des moyens de paiement , recherche un Ingénieur Logiciel Senior pour rejoindre son univers "Paiements". Vous intégrerez une équipe pluridisciplinaire travaillant en étroite collaboration avec un Product Manager et un Engineering Manager. Votre rôle sera déterminant dans la conception et le passage à l'échelle de solutions de paiement innovantes via l'intégration de divers prestataires. Conditions de la mission TJM : 500 € Disponibilité : ASAP (Dès que possible) Lieu : Full Remote possible (Télétravail total) Vos responsabilités Dans un environnement axé sur le produit, vous serez en charge de : Conception et Développement : Piloter la création de connecteurs de paiement robustes en utilisant Java (version 17+) et des frameworks modernes comme Micronaut . Vous concevrez et maintiendrez des microservices à haute performance. Intégration et Implémentation : Exécuter et superviser les intégrations avec les principaux fournisseurs de paiement et réseaux de cartes ( Visa, Mastercard , etc.). Leadership et Mentorat : Guider les ingénieurs juniors et intermédiaires, en favorisant une culture d'apprentissage continu et d'amélioration technique. Innovation Collaborative : Travailler main dans la main avec les équipes QA et Produit. Participer activement aux discussions architecturales et aux rituels Scrum pour affiner la roadmap. Excellence Technique : Élever les standards d'ingénierie logicielle au sein de l'organisation et optimiser les processus de développement. Croissance de l'équipe : Participer au processus de recrutement pour identifier les futurs talents.
Offre d'emploi
Développeur Full Stack (Go & python & Angular)
AVALIANCE
Publiée le
Angular
AWS Cloud
CI/CD
1 an
40k-65k €
450-600 €
Massy, Île-de-France
Compétences techniques requises : Concevoir et mettre en œuvre des fonctionnalités robustes et évolutives sur nos différentes plateformes. • Piloter les décisions relatives à l'architecture technique et les choix technologiques stratégiques. • Intégrer et améliorer nos solutions de services de bases de données. • Optimiser les performances, la sécurité et la maintenabilité des applications critiques. • Qualité et tests • Mettre en place et appliquer des stratégies de tests automatisés (unitaires, d'intégration, de bout en bout). • Réaliser des revues de code rigoureuses et constructives. • Respecter des normes de qualité de code exemplaires et tenir à jour une documentation exhaustive
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Offre d'emploi
Senior DevOps / Platform Engineer
KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD
3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Mission freelance
Expert observabilité datadog
Cherry Pick
Publiée le
AWS Cloud
Datadog
12 mois
550-600 €
Paris, France
Vos principales missions : 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques 2. Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog 3. Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis
Mission freelance
Devops
Ipanema Technology
Publiée le
AWS Cloud
Github
Gitlab
1 an
100-400 €
Casablanca, Casablanca-Settat, Maroc
Le profil attendu doit être autonome, capable de gérer ses tickets sans encadrement ni suivi opérationnel, avec une forte réactivité et fiabilité en environnement de production.Les compétences techniques restent relativement accessibles, incluant du DevOps classique et une capacité à travailler sur des automatisations intégrant des outils d’IA comme Claude ou Gemini. L’enjeu principal repose davantage sur la rigueur, la réactivité et la capacité à délivrer rapidement que sur une expertise technique très pointue. Stack Technique d'après AO de Matthieu : Infra & CI/CD : AWS/GCP, Terraform, Ansible, GitHub/Jenkins/GitLab CI (Hybride Cloud & On-premise). Systèmes & Métier : Admin Windows/Linux, déploiement COTS (Zuken, 3DExperience) et industrialisation de pipelines E/E
Mission freelance
Développeur Python devops AWS ANGLAIS 490 e
BI SOLUTIONS
Publiée le
DevOps
Python
3 ans
400-490 €
Île-de-France, France
Développeur Python devops AWS ANGLAIS 490 e Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA 490 e
Mission freelance
Administrateur de Bases de Données
Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace
3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Offre d'emploi
Tech Lead Fullstack Java / DevSecOps (H/F)
Inventiv IT
Publiée le
AWS Cloud
DevOps
DevSecOps
Levallois-Perret, Île-de-France
Dans le cadre de projets IT structurants, nous recherchons un Tech Lead Fullstack capable de piloter une ou plusieurs squads et de garantir la qualité des livrables dans des environnements exigeants. Vous interviendrez sur des projets long terme avec des enjeux forts autour de la scalabilité, sécurité et performance . Missions : Co-construire la roadmap technique avec les équipes produit et architecture Encadrer une équipe de 4 à 6 développeurs et assurer leur montée en compétence Définir et challenger les architectures techniques Participer activement au développement (hands-on) Mettre en place et maintenir les pipelines CI/CD et pratiques DevSecOps Garantir la qualité du code (tests, revues, bonnes pratiques) Assurer la communication avec les équipes infra, sécurité et produit Suivre la performance des applications (monitoring, SLA) Environnement technique : Backend : Java 17+/21, Spring Boot Frontend : React, Next.js, Angular DevOps : Git, GitLab CI/CD, Terraform, Docker Cloud : AWS (Azure / GCP en plus) Data : PostgreSQL, MongoDB Qualité : Tests unitaires, intégration, E2E
Offre d'emploi
Administrateur Active Directory & Identités Hybrides Cloud F/H
GENIOUS
Publiée le
Active Directory
AWS Cloud
45k-55k €
La Défense, Île-de-France
Genious Systèmes recherche pour son client un Administrateur Active Directory & Identités Hybrides Cloud F/H Administration/Exploitation : Installation, configuration, exploitation des équipements/services ainsi que des environnements Cloud IaaS/PaaS. Administration des environnements Active Directory hybrides (AD DS, AD Connect, Azure AD). Supervision et gestion des synchronisations d’identités (AD Connect, Cloud Sync) et mise en oeuvre des outils garantissant la cohérence des données. Vision globale et actualisée des systèmes d’information et connaissance de l’entreprise. Organisation et optimisation des ressources de son domaine. Mise en application des normes et des recommandations de déploiement des équipements dans les Datacenter Icade et de ses environnements Cloud. Suivi et analyse des performances, mise en place des mesures susceptibles d’améliorer la qualité ou la productivité de l’outil et intégration de la supervision Cloud (type Azure Monitor, Log Analytics, CloudWatch, CloudTrail) avec les outils existants (Prometheus/Grafana) pour une observabilité de bout en bout. Élaboration des règles d’utilisation de l’outil, en conformité avec les normes et standards de l’entreprise et dans le respect des contrats de service. Documentation des systèmes d’information gérés et des procédures. Sécurité : Définition de la politique de gestion des droits d’accès aux serveurs et aux applications en fonction des profils. Support/Maintenance : Traitement des incidents ou anomalies à partir des demandes internes : diagnostic de l’incident, identification, formulation et suivi de sa résolution. Traitement des incidents auprès des supports techniques (constructeurs/éditeurs). Proposition d’améliorations pour optimiser les ressources existantes et l’organisation. Transfert de compétences et assistance technique des procédures aux équipes production/exploitation et participation éventuelle à leur formation. Support et assistance technique aux responsables métiers dans la conduite de projet. Suivi et application du patch management des équipements gérés en relation avec les constructeurs et les éditeurs de logiciels (actions de maintenance évolutive, préventive et correctrice, Inventaire).
Offre d'emploi
Senior Fullstack Developer - Python / React
BLOOMAYS
Publiée le
AWS Cloud
Docker
Python
65k-70k €
Ivry-sur-Seine, Île-de-France
🏢 Description de lʼentreprise Notre client est une deeptech qui développe des systèmes biosphériques autonomes pilotés par l’IA . Ses technologies combinent biosciences, automatisation et data afin de produire des ingrédients naturels à haute valeur ajoutée pour les secteurs cosmétiques, pharmaceutiques et nutraceutiques , tout en ouvrant la voie à de futures bio-usines spatiales . 💼 Description du poste Votre mission 🚀 En tant que Senior Full Stack Developer , vous participerez à la conception et à l’évolution de la plateforme logicielle pilotant les systèmes biosphériques de l’entreprise. Vous interviendrez sur l’ensemble de la stack tout en apportant une vision technique structurante . Vos principales responsabilités Développer et maintenir des APIs et services backend en Python (FastAPI) Contribuer aux applications frontend en React Connecter capteurs, dispositifs et systèmes d’automatisation Intégrer des fonctionnalités basées sur l’IA et des API intelligentes Garantir la scalabilité et la robustesse des infrastructures Participer aux décisions d’architecture technique Collaborer avec des équipes engineering, science et produit
Mission freelance
Un IT Quants / DevOps Engineer,
Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Offre d'emploi
Founding Engineer JS (Fullstack / AI Product) - Insurtech - Paris
EASY PARTNER
Publiée le
AWS Cloud
Node.js
React
60k-75k €
Paris, France
Premier ingénieur de l’entreprise. Tu travailleras directement avec le CTO et tu seras impliqué(e) tout au long du cycle de vie du produit : architecture, développement, prise de décision technique et préparation à la production. Il s'agit d'un rôle opérationnel à fort impact, avec une grande autonomie et une réelle influence sur l'orientation technique de l'entreprise. Missions principales Product & Engineering Concevoir et développer les fonctionnalités cœur du produit à travers les agents d'IA, les flux de travail et les intégrations. Transformer des idées produit en systèmes prêts pour la production Participer aux décisions d’architecture, et assumer la responsabilité des choix en tenant compte de l'évolutivité, de la sécurité et de la conformité. AI & systèmes de production Concevoir et faire évoluer des pipelines d'IA (LLM, RAG, systèmes à base d'agents) pour des cas d'utilisation réels et réglementée Garantir la fiabilité, la traçabilité et l'explicabilité des résultats de l'IA en production Optimiser les performances, les coûts et la qualité à mesure que la plateforme évolue Ownership technique Construire et gérer des systèmes scalables et robustes de A à Z, de la conception à la production, en mettant l'accent sur la qualité, la fiabilité et l'évolutivité. Assurer le support des déploiements en production chez les clients soumis à la réglementation et anticiper les défis liés à l'industrialisation Participer aux décisions techniques fondamentales et contribuer à façonner la manière dont l'ingénierie est réalisée (processus, normes, outillage). Stack technique Notre pile technologique est conçue pour prendre en charge les flux de travail axés sur l'IA , une fiabilité de niveau entreprise et les contraintes réglementaires européennes . Côté serveur et côté client : TypeScript, , React/ Infrastructure : AWS (serverless, managed services) Données et IA : LLMs, RAG, agent-based systems, document processing, hybrid search Intégrations : Microsoft 365, CRM, insurer systems, secure APIs
Offre d'emploi
Data Engineer / Développeur Java Full Stack
AVA2I
Publiée le
Angular
API REST
AWS Cloud
1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
499 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois