Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 717 résultats.
Freelance
CDI
CDD

Offre d'emploi
Cloud GCP Data & IA Senior

bdevit
Publiée le
CI/CD
GenAI
Google Cloud Platform (GCP)

36 mois
Île-de-France, France
Contexte : Dans le cadre de l’accélération des usages IA générative au sein d’un grand groupe bancaire, une entité dédiée aux infrastructures IT renforce ses équipes Cloud afin de concevoir et industrialiser des plateformes Data, AI et GenAI sur GCP. Le consultant interviendra sur des cas d’usage autour des LLM et du RAG , avec des enjeux de scalabilité, sécurité, gouvernance des données et mise en production dans un environnement bancaire exigeant. Missions Principales : Concevoir et déployer des architectures Data, AI & GenAI sur GCP ; Mettre en œuvre des solutions basées sur des LLM (Vertex AI, modèles open source, APIs) ; Concevoir et industrialiser des pipelines RAG (Retrieval-Augmented Generation) : ingestion, vectorisation, recherche sémantique ; Implémenter des chaînes MLOps / LLMOps (CI/CD, évaluation, monitoring des modèles) ; Automatiser les infrastructures ( Terraform, IaC ) ; Assurer le run : performance, monitoring, optimisation des coûts (FinOps) ; Garantir la sécurité et la gouvernance des données sensibles (IAM, conformité, gestion des accès) ; Accompagner les équipes métiers et data dans l’industrialisation des cas d’usage GenAI.
Freelance

Mission freelance
Product Owner - Transaction Regulatory Reporting

NEXORIS
Publiée le
Data quality

1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Freelance

Mission freelance
Chef de projet Infra Cloud - Nationalité Européenne requise

Intuition IT Solutions Ltd.
Publiée le
AWS Cloud
Azure
Azure DevOps

9 mois
550-630 €
France
Les objectifs de la mission sont les suivants : · Leader de l'intégration de nouvelles applications dans HashiCorp Vault en utilisant des méthodologies Infrastructure as Code et Configuration as Code, avec une expérience avérée dans la gestion de déploiements à grande échelle dans des environnements hétérogènes. · Développement d'une documentation précise, complète et opérationnellement prête pour HashiCorp Vault. · Organiser des sessions de formation structurées aux équipes concernées afin d'assurer une utilisation correcte et efficace de Vault. · Concevoir et mettre en œuvre de nouvelles fonctionnalités, améliorations et améliorations architecturales au sein de HashiCorp Vault, tout en coordonnant à grande échelle avec de multiples parties prenantes et équipes techniques. · Planification, orchestration et validation des tests de reprise après sinistre (DR), définition des scénarios, critères de réussite et préparation inter-équipes. · Garantir l'excellence opérationnelle continue de la plateforme Vault, incluant la maintenance proactive, l'optimisation des performances, la gestion du cycle de vie et la réduction des risques.
CDI
Freelance

Offre d'emploi
Développeur Node.js F/H

ADDIXWARE
Publiée le
AWS Cloud
Front-end
JavaFX

1 an
Nice, Provence-Alpes-Côte d'Azur
Poste en télétravail intégral, axé sur le développement de modules applicatifs disposant d'interfaces utilisateurs avancées et d'une forte composante cloud. L'environnement technique repose sur des architectures déployées sur AWS, avec une infrastructure automatisée et isolée pour chaque client. Missions - Développement de fonctionnalités front-end et back-end sur une plateforme en Node.js / TypeScript - Création et amélioration d'interfaces utilisateurs permettant la génération et la gestion de contenus structurés - Participation à la conception et au maintien d'infrastructures cloud sur AWS - Mise en place et évolution d'infrastructure mono-tenant pour chaque client, avec mutualisation partielle des composants - Déploiement d'applications conteneurisées via Docker et orchestrées avec ECS - Automatisation des déploiements et de l'infrastructure via Terraform Environnement technique - Langages : Node.js, TypeScript, Angular - Cloud : AWS (ECS, Lambda, S3, etc.) - Conteneurisation : Docker - Infrastructure as Code : Terraform - Architecture : mono-tenant, multi-infra client - Méthodologie : Agile / CI-CD
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Product Owner Data (H/F)

LeHibou
Publiée le
Méthode Agile
Product management

3 mois
400-500 €
Toulouse, Occitanie
Notre client dans le secteur Conseil et audit recherche un/une Product Owner Data H/F Description de la mission : Nous recherchons un Product Owner disponible dès que possible , pour une mission à 100% , avec un engagement a minima jusqu’à juillet (renouvelable sur l’année). Détail des activités : Requis mission: 0 = exigence faible ; 1 = exigence modérée; 2 = exigence élevée Requis (0-2) - Définir et/ou affiner la vision produit, le backlog et la roadmap en cohérence avec la vision du programme et du portefeuille : 2 - Collaborer avec l’écosystème des Product Owners afin de maintenir un backlog à jour, mature et priorisé, prêt pour le PI Planning et chaque itération du PI : 2 - Collaborer avec les architectes du train et les équipes de développement pour identifier la dette technique, évaluer ses impacts et anticiper les surcoûts : 2 - Préparer et contribuer activement à l’ensemble des cérémonies Scrum et ART : 1 - Tester et valider les User Stories afin de s’assurer qu’elles respectent les critères d’acceptation et la Definition of Done : 2 - Analyser et prioriser les anomalies et les demandes utilisateurs afin de les intégrer au backlog produit : 2 - Produire et maintenir une documentation produit claire et à jour (fonctionnelle et technique) : 1 - Préparer et diffuser les communications produit (release notes, user guides..) : 1 - Suivre l’usage, la valeur délivrée et les retours utilisateurs pour ajuster les priorités : 1
Freelance
CDI

Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT

K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet

1 an
40k-49k €
430-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance
CDI

Offre d'emploi
Data Scientist Computer Vision sur Alsace

EterniTech
Publiée le
Computer vision
Data science
Vertex AI

3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Data Scientist (H/F)

Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)

8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Freelance

Mission freelance
Data Analyst Performance

CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop

12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven
CDI

Offre d'emploi
Architecte Solution Data

VISIAN
Publiée le
ArchiMate
TOGAF

50k-62k €
Paris, France
Description et livrables de la prestation : Concevoir, valider et faire respecter l'architecture technique et fonctionnelle des solutions pour assurer leur conformité aux standards, à la stratégie IT-DATA et aux exigences de sécurité. Garantir la cohérence, la performance, la réutilisation et la gestion des risques tout au long du cycle de vie des projets. Vous aurez la responsabilité de sujets portant sur la Vision 360 Client, le MDM, etc... au sein de l'équipe Architecture Solutions Data - IA - KYC - Client Pour cela, voici les missions clés : Conception de solutions : Élaborer des dossiers de design (DDS), en intégrant les standards (refcards) et l’impact data, IA, sécurité, et digital. Pilotage et accompagnement : S’assurer de l’implémentation conforme, suivre la livraison et gérer les écarts ou remédiations. Participation à l’élaboration d’une cible d’Architecture Data en collaborant avec les architectes d’entreprise et product managers Animation transverse et gouvernance : Participer aux instances stratégiques, animer la communauté d’architectes autour de vos sujets, promouvoir les bonnes pratiques. Sécurité et conformité : Intégrer les enjeux de cybersécurité, de protection des données, et de conformité réglementaire. Défendre et promouvoir la stratégie d’architecture : principes « Tous Architectes », mise à jour du référentiel, défense de la cible d’architecture et des enjeux métier/données. Analyser et répondre aux RFP : Identifier, challenger et co-construire des solutions adaptées, auditables, et déployables. Veille technologique et marché : Maintenir une connaissance à jour des innovations (cloud, IA, Data, sécurité, microservices, API, DevSecOps).
Freelance

Mission freelance
IA ENGINEER

CHOURAK CONSULTING
Publiée le
AWS Cloud
GenAI
LangChain

3 mois
400-670 €
Île-de-France, France
Nous recherchons un LLM Engineer confirmé / senior avec un fort background Data Scientist , pour intervenir sur des projets stratégiques autour de l’ IA Générative et des architectures RAG sur AWS. 🎯 Contexte de la mission Vous intégrerez une équipe en charge de concevoir et industrialiser des solutions IA basées sur des LLM , avec des enjeux forts de performance, sécurité et scalabilité. L’objectif : passer du prototype à la production sur des cas d’usage métier à fort impact. ⚙️ Missions principales Concevoir et développer des solutions basées sur des LLM . Mettre en place des architectures RAG (Retrieval Augmented Generation) . Développer des agents IA avec LangChain / LlamaIndex ou frameworks équivalents. Déployer et industrialiser les solutions sur AWS . Optimiser les performances (fine-tuning, embeddings, prompt engineering avancé). Collaborer avec les équipes Data, IT et métiers pour cadrer les cas d’usage. Participer aux phases de POC puis d’industrialisation.
2717 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous