Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 953 résultats.
CDI

Offre d'emploi
Consultant Data Python, SQL et SAS H/F

Proxiad
Publiée le
Python
SAS
SQL

Île-de-France, France
• Contexte de la mission : Besoin pour l’un de nos client issu du secteur de l'assurance. Migration de programmes et requêtes SAS en Python. La solution SAS utilisée chez ce client ne va plus être utilisée, il est donc nécessaire de migrer toutes les requêtes existantes pour poursuivre l'exploitation des données et la production des différents rapports nécessaires. L'objectif est de faire une migration "à l'identique". • Tâches à réaliser : Recenser l'ensemble des requêtes SAS existantes Recensement à priori fait mais à revoir avec les équipes en place Analyser chaque requête SAS Comprendre l’objectif de la requête et les KPIs calculés Identifier les règles métier appliquées aux calculs Valider la fréquence de la requête Interagir avec les métiers Suite à l’analyse des requêtes SAS, des réunions avec les utilisateurs métiers seront éventuellement nécessaire pour préciser, confirmer ou ajuster les règles de calcul pour chaque requête Concevoir la requête en Python Développer la requête en code python Tester la requête en comparant aux résultats obtenus sous SAS pour valider l’isorésultat Documenter le nouveau code
Freelance

Mission freelance
Data Engineering (IA/ML)

Deodis
Publiée le
MLOps

1 an
650 €
Île-de-France, France
Le poste consiste à intervenir en tant qu’expert senior en Data Engineering spécialisé en IA/ML au sein d’un environnement Big Data et cloud à forte volumétrie. La mission porte sur l’optimisation, l’industrialisation et la montée en charge de plateformes Data et IA utilisant notamment Spark, Kubernetes, Dagster et Trino. Le profil recherché doit être capable d’améliorer les performances des pipelines de données, structurer les pratiques techniques, accompagner les équipes Data Science et développement, mettre en place des solutions de monitoring et de scalabilité, ainsi que participer à des projets d’innovation autour des architectures Data/IA et des outils MLOps.
Freelance

Mission freelance
101686/Chef de Projet Niort AGILE SAFE

WorldWide People
Publiée le
Pilotage

9 mois
400-440 €
Niort, Nouvelle-Aquitaine
Chef de Projet Niort AGILE SAFE La mission consiste à piloter des projets transverses impliquant plusieurs solutions technologiques, en coordonnant des équipes Agile organisées en trains (Framework Safe) et en garantissant le respect des coûts, des délais et des spécifications. Mission basée à Niort, avec une possibilité de télétravail pour 2 à 3 jours par semaine. Activités : - Superviser et piloter les projets depuis leur conception jusqu’à leur réalisation, en s’appuyant sur des ressources internes et externes, dans le respect des coûts et délais. - Assurer une vue transverse des besoins entre les métiers et les produits, ainsi que des plannings, coûts et délais. - Contribuer à l'élaboration et s'assurer de la mise en place d'une feuille de route du projet et de ses lignes budgétaires. Activités détaillées Conduite d’étude et de projet : - Piloter et contribuer à l’étude (choix de solution, chiffrage de la solution, risques, ressources projets nécessaires, staffing, planning). - Préparer en amont les éléments de chiffrage et/ou de facturation. - Choisir et affecter des ressources. - Participer activement à la conception fonctionnelle et technique de la solution. - Superviser le paramétrage. - Gérer la relation avec le ou les fournisseurs (éditeur et intégrateur, depuis la signature du contrat jusqu’à la validation finale du projet). - Organiser, coordonner et animer l’ensemble des acteurs. - Arbitrer les éventuels différends entre l’équipe et les autres intervenants. - Animer la gouvernance : organiser et animer les comités, rédiger et diffuser les comptes-rendus. - Piloter et mesurer l’état d’avancement (création des tableaux de bord, choix des indicateurs, planification des comités de pilotage, etc.). Mise en œuvre des actions d’accompagnement des utilisateurs : - Organiser le passage Projet =? Produit et la phase de maintenance. - Organiser le support utilisateur. - Participer à l’organisation de la communication, du changement et de la formation des utilisateurs. Garantie de la meilleure adéquation qualité - coût - délai : - Garantir le respect du cahier des charges. - Valider les livrables. - Garantir le respect des délais et des coûts. - Proposer au métier ou maîtrise d’ouvrage, en cours de projet, d’éventuelles modifications de trajectoire (qualité, coût, délai) liées à des contraintes (de réalisation, des modifications d’environnement, des manques de disponibilité non programmées, etc.). Documents projets : - Comptes-rendus des réunions et des comités. - Suivi des temps et des avancements (dans l’outil Clarity). - Reporting et bilans. La mission nécessite de l'expérience en management de projet et avoir un socle technique informatique solide et avoir une maîtrise de l'agilité Qualifications : Project Management, Agile Project Management
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
Freelance
CDI

Offre d'emploi
Senior Data Analyst

AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI

3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle

Mon Consultant Indépendant
Publiée le
Gestion de projet

40k-50k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage, vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables et produisez les PV de recette. En transverse, vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques et facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : · Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. · Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. · Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : · Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. · Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. · Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : · Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. · Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. · Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : · Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. · Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. · Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : · Démarrage : mai 2026 · Durée : jusqu'à fin décembre 2026 · Charge : temps plein · Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
CDI

Offre d'emploi
Développeur Data industrelle/MES H/F

VIVERIS
Publiée le

45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Freelance

Mission freelance
Solution Architecte Power BI / Microsoft Fabric - Administration & Architecture

CHOURAK CONSULTING
Publiée le
CI/CD
Confluence
DAX

3 mois
400-700 €
Paris, France
Nous recherchons un Solution Architecte Power BI / Microsoft Fabric avec une expertise avancée en administration Microsoft Fabric , pour intervenir sur des sujets stratégiques de gouvernance, architecture et performance. ⚠️ Il ne s’agit pas d’un poste de Data Analyst Power BI. Nous recherchons un référent technique capable d’administrer les capacités Fabric et de conseiller sur l’architecture globale . 🎯 Contexte de la mission Vous serez le point d’entrée technique sur l’ensemble des sujets Power BI / Fabric , avec une forte responsabilité sur : L’administration des capacités Fabric L’optimisation des performances La gouvernance et la sécurité Les bonnes pratiques d’architecture BI ⚙️ Missions principales Administrer et monitorer les capacités Microsoft Fabric (analyse de consommation, optimisation, gouvernance). Définir et mettre en œuvre les standards d’architecture Power BI. Superviser la modélisation des datasets (modèle en étoile, optimisation). Garantir la sécurité des données : RLS, OLS, gestion des accès . Mettre en place et améliorer les pratiques CI/CD Power BI . Accompagner les équipes BI et Data sur les bonnes pratiques. Challenger les choix d’architecture et assurer la cohérence globale.
Freelance

Mission freelance
Consultant Power BI/Azure Data Factory

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel
Freelance

Mission freelance
[SCH] Data Ops - 1468

ISUPPLIER
Publiée le

10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Freelance

Mission freelance
Business Analyst (Nantes) H/F

LeHibou
Publiée le
Business Analyst

3 ans
400-500 €
Nantes, Pays de la Loire
Notre client dans le secteur Banque et finance recherche un/une Business Analyst H/F Description de la mission: Profil recherché : Nous recherchons un Business Analyst expérimenté, disposant d'une expertise confirmée en mainframe, d’une excellente maîtrise du cadrage fonctionnel et d’une solide expérience des méthodes Agile / SAFe. Expérience : 8 ans minimum, dont une part significative en tant que développeur Mainframe (langage Cobol) Attendus du poste : Compréhension et analyse du besoin métier Conception de solution applicative complexe et prise de hauteur par rapport à une solution transverse Centraliser et répondre aux besoins Clarifier, analyser d’un point de vue critique et constructif et le cas échéant challenger le besoin formulé par le Métier aux regards des objectifs d’optimisation IT et/ou métiers Analyser des impacts fonctionnels et techniques Participer à l’élaboration et au cadrage des solutions fonctionnelles, aux devis & chiffrages, études d’impact, dossiers d’opportunité Construire la solution globale en réponse au besoin, en restant pragmatique et exigeant sur la pérennité de cette solution Contribuer à la définition de la stratégie de de tests et recettes Mettre à jour le backlog produit avec le PO Participer aux différentes cérémonies agiles Rédiger les spécifications fonctionnelles générales et détaillées et maintenir les documents spécifiques Assurer le cas échéant le suivi post MEP et le suivi financier : budget, consommés, projections Run & Support : Maximum 10% du temps consacré au Run : Gestion des incidents, Analyse des dysfonctionnements, Réponses métiers, Petites évolutions et améliorations continues. Outils de gestion de projet et méthodologies : Environnements Agile : Scrum, SAFe. Outils : JIRA, Confluence, ServiceNow, SharePoint. Maîtrise des outils bureautiques avancés : Excel, modèles, suivi budgétaire. Connaissance des technologies : Mainframe, COBOL, CICS, JCL, DB2, Armide, API, WebServices, Kafka, FileMQ, CTG Communication & relationnel : Excellente capacité à expliquer, convaincre, et de façon générale, à communiquer avec les équipes métier, les développeurs, la production, les architectes et la direction. Sens de la pédagogie, capacité à vulgariser Capacité à transformer les données brutes en informations exploitables, à analyser, critiquer et négocier Rigueur et précision Adaptabilité, aptitude à travailler en transversal dans un environnement multi-projets.
Freelance

Mission freelance
Business Analyst junior H/F

SPI INFORMATIQUE
Publiée le
Méthode Agile

3 mois
250-400 €
Deux-Sèvres, France
Rédiger la documentation fonctionnelle des solutions (guides utilisateurs, supports métier, modes opératoires…) Traduire le fonctionnement des outils informatiques en langage métier compréhensible Analyser les besoins clients de manière transverse (enjeux métier et outils) Participer à la définition et à la formalisation des processus clients à outiller Contribuer aux ateliers, réunions et groupes de travail avec les clients Évaluer l’adéquation des solutions proposées avec les besoins métiers Ajuster et enrichir la documentation en fonction des retours utilisateurs Proposer des livrables complémentaires adaptés aux usages Participer aux projets de déploiement en lien avec les équipes internes Remonter les retours clients aux équipes produit et aux parties prenantes Accompagner les équipes internes dans l’appropriation des outils et processus Concevoir et animer des formations (présentiel, webinaires, e-learning) Assurer le suivi et la visibilité de vos productions
Freelance
CDI

Offre d'emploi
Senior Data Engineer GCP

Octopus Group
Publiée le
Google Cloud Platform (GCP)

12 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native
Freelance
CDI

Offre d'emploi
Architect Data

The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server

6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
CDI

Offre d'emploi
Architecte Data H/F

TOHTEM IT
Publiée le

40k-50k €
Toulouse, Occitanie
Le contexte Tu interviens sur la conception de plateformes data modernes dans un environnement industriel aéronautique. Tes missions Dans ce rôle, tu interviens sur plusieurs types de missions : Tu conçois des architectures de données robustes, scalables et performantes pour répondre aux besoins d’analyse. Tu définis les solutions d’extraction, de transformation et de chargement des données (ETL/ELT) depuis différentes sources vers les entrepôts de données, en lien avec les équipes data engineering. Tu collabores étroitement avec les équipes métiers afin de comprendre leurs besoins et de structurer la donnée au sein du système d’information. Tu veilles à la sécurité et à la conformité des données en mettant en place des dispositifs adaptés de contrôle d’accès et d’audit. Tu surveilles les performances des systèmes, identifies les points de blocage et proposes des optimisations. Tu restes en veille sur les évolutions des technologies data, BI et cloud afin de contribuer à l’amélioration continue. Tu participes à la montée en compétences des équipes data (data engineers, data analysts) sur les outils et bonnes pratiques. Tu conçois des plans de migration entre différentes technologies (par exemple d’outils on-premise vers des solutions cloud). Tu contribues activement aux communautés d’expertise en partageant tes idées et retours d’expérience.
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
2953 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous