L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 432 résultats.
Mission freelance
Développeur Java Angular IA
Cherry Pick
Publiée le
Angular
IA
Java
12 mois
580 €
Paris, France
Conception solution : Définir l’architecture logicielle (front Angular, back Java / Spring Boot, services LLM), rédiger les spécifications fonctionnelles & techniques, estimer la charge. - Implémentation & intégration LLM : Développer les composants, orchestrer appels API, mettre en place RAG, embeddings, vector stores, prompt engineering. - Mise en production et run : Automatiser CI/CD, superviser la performance, optimiser les coûts et la latence des appels LLM, assurer le support. Techniques : Front-end : Angular 14+, RxJS, NgRx Back-end : Java 17+, Spring Boot, REST/GraphQL, JPA/Hibernate, Maven/Gradle LLM & IA générative : o Intégration API (OpenAI, Azure OpenAI, Vertex AI, Anthropic, Mistral) o MCP, Retrieval-Augmented Generation (RAG) o Vector DB, embeddings, Semantic search o Prompt engineering, Guardrails, évaluations automatiques de prompts DevOps : GitLab, Jenkins, OpenShift Cloud : Azure Sécurité & conformité : OAuth2 / OIDC, gestion des secrets, RGPD, Data Masking Autonomie et leadership technique : organiser son backlog, arbitrer les priorités sans supervision rapprochée Esprit d’initiative : proposer des cas d’usage innovants, challenger l’existant Rigueur : documentation précise, couverture de tests élevée, respect des SLAs
Offre d'emploi
Business Analyst IT Data AML/KYC Automation Luxembourg
Cogniwave dynamics
Publiée le
AML (Anti-Money Laundering)
Big Data
Know your customer (KYC)
1 an
Luxembourg
Pour une mission long terme sur Luxembourg , nous recherchons un BA IT Data compliance Automation Poste en CDI au Luxembourg de préférence : Salaire + Bonus à discuter Ouvert aux freelances (3/4 jours sur site par semaine) -Possible part time sur Paris à discuter Au sein de l’équipe IT Data Compliance Automation, vous intervenez sur un projet stratégique d’automatisation de la révision des dossiers de conformité AML/KYC Vous êtes au cœur de la transformation digitale de la fonction Compliance, en combinant technologies de pointe ( RPA, Intelligence Artificielle, OCR ) et expertise métier pour accélérer et fiabiliser les processus de révision client. MISSION Pilotage projet (Business Analyst) • Étude de l’existant : Analyser les processus existants via des ateliers métiers et de la documentation • Définition de la cible : Concevoir les processus et outils cibles, identifier les écarts fonctionnels • Cadrage fonctionnel : Rédiger les dossiers d’exigences et les expressions de besoins • Support IT : Accompagner les équipes de développement durant les phases techniques • Tests & recette : Concevoir et exécuter les plans de tests, coordonner la recette métier • Conduite du changement : Créer les supports de formation, animer les sessions, accompagner les utilisateurs Support applicatif (Run) • Support N2/N3 : Traiter les incidents et demandes des équipes opérationnelles • Investigation : Reproduire les anomalies, investiguer en base de données, diagnostiquer • Maintenance : Assurer le suivi des maintenances correctives et évolutives • Releases : Coordonner et communiquer les releases applicatifs • Amélioration continue : Proposer et mettre en œuvre des actions d’optimisation
Mission freelance
Data scientist IA + Python + GCP
emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Mission freelance
Chef de Projet IT RUN & Évolutif Multi-ERP H/F
OUICODING
Publiée le
1 mois
420-900 €
Courbevoie, Île-de-France
Vous évoluerez dans un contexte à forts enjeux opérationnels, nécessitant capacité d'analyse, vision transverse et excellence en coordination. Les principales missions à réaliser sont : Gestion du RUN & Maintenance : -Garantir la stabilité et la performance des ERP en pilotant les corrections, les flux data et la maintenance applicative. -Assurer la continuité de service dans un environnement exigeant. -Contribuer activement au projet de migration ERP, intégrant des leviers d'automatisation et d'IA dans une logique d'optimisation et de modernisation du SI. Analyse et Cadrage : -Traduire les besoins des trois maisons en spécifications claires et exploitables (fonctionnelles et techniques). -Sécuriser le cadrage et anticiper les impacts transverses. Priorisation et Arbitrage : -Gérer un backlog dynamique, arbitrer entre urgences business et contraintes techniques. -Mettre en oeuvre une priorisation pragmatique orientée valeur. Interface Multi-acteurs : Être l'interlocuteur clé entre : -Directions métiers (Marketing, Ventes, Finance) -Équipes de développement internes -Partenaires et intégrateurs -Faciliter les échanges, fluidifier les décisions et sécuriser l'avancement. Pilotage des Releases : -Coordonner les mises en production sur les 3 ERP. -Garantir la non-régression et sécuriser les Go/No-Go techniques et métiers. Pilotage des outils & gouvernance -Assurer un pilotage rigoureux via Jira. -Structurer la documentation et capitaliser dans Confluence. -Produire des KPIs pertinents et animer les comités de suivi.
Mission freelance
Chef de projets Reporting règlementaire
NEXORIS
Publiée le
Microsoft Power BI
1 an
570-700 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Chef de Projets Reporting Réglementaire – Qualité de Données (H/F) dans le cadre d'une longue mission. Au sein des Opérations de Marchés, dans l’équipe Capital Markets Regulatory, la mission consiste à piloter des projets liés à la qualité et à la complétude du reporting réglementaire transactionnel. L’intervention porte sur la formalisation des besoins, le déploiement de contrôles de qualité de données et l’accompagnement des évolutions réglementaires et organisationnelles. - Cadrage des besoins métiers et rédaction des Business Requirement Documents (BRD) - Validation des spécifications fonctionnelles - Conception des cahiers de test et validation des UAT - Interprétation des textes réglementaires en coordination avec la Conformité Marché - Déploiement et codage des contrôles de qualité de données (outil interne ou solutions externes type Power BI) - Création de dashboards de suivi de la qualité des données - Analyse des défauts de qualité de données et pilotage des actions de remédiation - Formalisation des procédures écrites et des modes opératoires - Définition et mise en œuvre du Target Operating Model - Animation de la gouvernance projet avec les équipes FO, MO, BO, Conformité et IT - Exploration des besoins en Data Lineage et Intelligence Artificielle appliqués à la qualité des données Livrables : - BRD et documentation fonctionnelle - Cahiers de test et validation UAT - Procédures et modes opératoires formalisés - Dashboards de suivi qualité - Plans de remédiation et reporting d’avancementNotre client, Banque de Finance et d'Investissement, recherche un Chef de Projets Reporting Réglementaire – Qualité de Données (H/F) dans le cadre d'une longue mission. Au sein des Opérations de Marchés, dans l’équipe Capital Markets Regulatory, la mission consiste à piloter des projets liés à la qualité et à la complétude du reporting réglementaire transactionnel. L’intervention porte sur la formalisation des besoins, le déploiement de contrôles de qualité de données et l’accompagnement des évolutions réglementaires et organisationnelles. - Cadrage des besoins métiers et rédaction des Business Requirement Documents (BRD) - Validation des spécifications fonctionnelles - Conception des cahiers de test et validation des UAT - Interprétation des textes réglementaires en coordination avec la Conformité Marché - Déploiement et codage des contrôles de qualité de données (outil interne ou solutions externes type Power BI) - Création de dashboards de suivi de la qualité des données - Analyse des défauts de qualité de données et pilotage des actions de remédiation - Formalisation des procédures écrites et des modes opératoires - Définition et mise en œuvre du Target Operating Model - Animation de la gouvernance projet avec les équipes FO, MO, BO, Conformité et IT - Exploration des besoins en Data Lineage et Intelligence Artificielle appliqués à la qualité des données Livrables : - BRD et documentation fonctionnelle - Cahiers de test et validation UAT - Procédures et modes opératoires formalisés - Dashboards de suivi qualité - Plans de remédiation et reporting d’avancement
Offre d'emploi
Expert GenAI / Data Engineer GCP (Agentic AI)
xITed
Publiée le
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du développement de ses initiatives autour de l’Intelligence Artificielle Générative et de l’automatisation intelligente, un grand groupe international souhaite renforcer ses équipes Data & AI avec un Expert GenAI / Data Engineer . Le consultant interviendra sur la conception et l’industrialisation de solutions basées sur des modèles de langage (LLM) intégrés à une plateforme data cloud moderne reposant sur Google Cloud Platform (GCP) . Objectifs de la mission Concevoir et industrialiser des solutions d’IA générative à l’échelle Développer des architectures d’agents intelligents (Agentic AI) Intégrer les usages IA aux plateformes data existantes Garantir la robustesse, la performance et la scalabilité des solutions Participer aux choix d’architecture et aux bonnes pratiques techniques Missions principales IA Générative / Agentic AI Conception et développement d’agents basés sur des modèles LLM Mise en œuvre d’architectures RAG (Retrieval Augmented Generation) Orchestration de workflows IA multi-étapes Intégration d’APIs et outils externes Optimisation des performances et de la qualité des réponses IA Data Engineering Conception et optimisation de pipelines data (ETL / ELT) Ingestion et transformation de données volumineuses Exploitation de données structurées et non structurées Mise en place de standards de qualité et de gouvernance des données Architecture Cloud Design d’architectures AI end-to-end sur GCP Déploiement de services cloud-native Participation aux décisions techniques et à l’industrialisation Mise en production et amélioration continue des solutions Environnement technique Cloud & Data Google Cloud Platform (GCP) BigQuery Dataflow Cloud Storage Pub/Sub Cloud Run / Cloud Functions AI / GenAI Vertex AI LLM APIs LangChain / LangGraph / LlamaIndex (ou équivalent) Architectures RAG Vector databases Développement Python (expert) APIs REST Docker CI/CD Git Profil recherché Minimum 7 ans d’expérience en Data Engineering / Software Engineering Expérience confirmée sur environnement GCP Expérience concrète sur projets GenAI / LLM en production Bonne maîtrise des architectures cloud distribuées Capacité à intervenir sur des sujets d’architecture et d’industrialisation Anglais professionnel Compétences clés GenAI / Agentic AI Data Engineering avancé Architecture GCP Industrialisation AI Python avancé
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Offre d'emploi
Statisticien - Data Scientist - Model Risk Management & Validation Indépendante des Modèles H/F
█ █ █ █ █ █ █
Publiée le
Le Relecq-Kerhuon, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Offre d'emploi
Data Engineer GCP (H/F)
CELAD
Publiée le
42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Mission freelance
Governance & Data Management Lead
ALLEGIS GROUP
Publiée le
Data management
Gouvernance
Méthode Agile
1 an
Paris, France
Nous recherchons un Governance & Data Management Lead pour structurer, coordonner et piloter l’ensemble des processus de collecte, gestion et reporting des données de sécurité et des use cases IA au niveau Groupe. Ce rôle stratégique combine gouvernance, coordination transverse, travail avec équipes off‑shores et animation de communautés Data & AI. Votre mission principale Piloter et coordonner la collecte, gestion et consolidation des données de sécurité et des use cases IA à travers les entités du Groupe, en garantissant : la conformité, l’engagement des parties prenantes, une gouvernance solide, et une vision unifiée au niveau Group Security.
Mission freelance
Senior Prompt Engineer
VISIAN
Publiée le
IA
Python
3 ans
400-450 €
France
Dans le cadre d’un projet stratégique d’ intelligence artificielle appliquée à la force de vente , un acteur de premier plan souhaite renforcer ses équipes sur une phase d’industrialisation post-POC . La mission porte sur la conception et le déploiement de solutions IA robustes, intégrées aux systèmes existants, avec des cas d’usage orientés performance commerciale et génération de valeur métier . Missions Concevoir et structurer des frameworks de prompts et des architectures d’agents IA (agentic & standard) Mettre en place des pipelines d’évaluation et de validation des prompts et agents (tests, scoring, qualité) Garantir des sorties IA structurées, typées et exploitables (JSON, modèles de validation) Piloter l’ensemble du cycle PromptOps : versioning, bonnes pratiques, industrialisation Optimiser les coûts et performances IA via RAG, réduction de contexte et stratégies d’optimisation Concevoir des API et schémas de tool-calling pour l’intégration aux SI existants Améliorer le raisonnement des systèmes via des mécanismes avancés (réflexion, itération, auto-évaluation) Construire des systèmes IA autonomes, fiables et prêts pour la production Travailler en collaboration avec les équipes produit, data et métiers dans un cadre Agile Livrables attendus Frameworks de prompts et d’agents documentés Pipelines d’évaluation automatisés Schémas d’API et documentation d’intégration Bonnes pratiques PromptOps formalisées Systèmes IA industrialisés et monitorés Documentation technique et fonctionnelle associée Environnement technique Langage : Python Prompt Engineering & PromptOps Orchestration d’agents IA API Design / Tool Calling Structuration des sorties (JSON, validation de schémas) Méthodologie Agile / Scrum Environnement IA orienté production
Mission freelance
Master Data Management Specialist
Codezys
Publiée le
CRM
Gouvernance
Migration
12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Offre d'emploi
Ingénieur IA / Machine Learning – Énergie
Amontech
Publiée le
AI
Machine Learning
MLOps
40k-45k €
Île-de-France, France
🎯 Nous recherchons un(e) Consultant(e) Senior en Intelligence Artificielle / Machine Learning pour accompagner des Business Units dans la conception, le développement et l’industrialisation de solutions IA appliquées aux enjeux énergétiques et de décarbonation. 🔍 Contexte de la mission Vous interviendrez sur des projets IA à destination de différents segments énergie (bâtiments, sites industriels, réseaux, production), avec pour objectif de : optimiser la performance énergétique, réduire l’empreinte carbone, transformer des problématiques opérationnelles en produits IA robustes et industrialisés . Vous travaillerez en étroite collaboration avec les équipes métier, Data Science et IT , et contribuerez à l’intégration des solutions au sein d’une plateforme data groupe. 🛠️ Missions Vos principales responsabilités seront : Concevoir, développer et déployer des solutions IA / Machine Learning scalables et exploitables en production Transformer des problématiques métier liées à l’énergie en solutions IA concrètes et mesurables Industrialiser les modèles (du POC à la production) en garantissant la qualité des données, la robustesse et la maintenabilité Construire et maintenir une bibliothèque de composants IA explicables et réutilisables , intégrée à la plateforme data groupe Piloter des projets de bout en bout : cadrage, développement, déploiement, mesure d’impact Produire la documentation nécessaire (blueprints, guides, playbooks) afin de faciliter la réutilisation des solutions Faciliter la collaboration entre les différentes parties prenantes (Business Units, équipes Data, IT, fonctions centrales)
Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour
BI SOLUTIONS
Publiée le
API Platform
AWS Cloud
2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
432 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois