L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 203 résultats.
Offre d'emploi
Data Engineer(H/F)
QODEXIA
Publiée le
Apache Spark
Azure
Databricks
10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Mission freelance
Architecte IT
Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure
12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
Offre d'emploi
Lead Développeur Java/AWS
VISIAN
Publiée le
AWS Cloud
AWS Cloudwatch
GraphQL
3 ans
Paris, France
Tâches principales Analyse un besoin et modélise une application informatique Développe une application informatique Met en place l'intégration continue Maintenir et faire évoluer l'application Gère un projet de développement informatique Tâches supplémentaires Forme les utilisateurs Participe à la production Soutient la recette et traite les retours de recette Fournit un support client Compétences appréciées Familiarity with PostgreSQL Knowledge of CI/CD pipelines, monitoring, and logging in cloud-native environments Kubernetes
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Offre d'emploi
DevOps SRE AZURE (CDI )
KOUKA
Publiée le
Azure
Kubernetes
Site Reliability Engineering (SRE)
40k-64k €
Île-de-France, France
• Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable.
Offre d'emploi
QA Automation Python / Azure
KOUKA
Publiée le
Gherkin
Jenkins
Méthode Agile
45k-60k €
Île-de-France, France
Conception et développement de tests automatisés en Python Automatisation des tests API / back-end Mise en place et maintenance des pipelines de tests Intégration des tests dans les pipelines CI/CD (Azure DevOps) Participation à la stratégie de test Contribution à l’amélioration continue de la qualité Collaboration étroite avec les équipes dev, PO, QA, DevOps Python (automation QA) Frameworks de test (ex : Pytest , Behave , Robot Framework ) Tests API ( Postman , REST , JSON , Swagger ) Azure (Azure DevOps, pipelines, environnements cloud) CI/CD SQL apprécié Git
Mission freelance
Développeur Senior C# (environnement Azure)
STHREE SAS pour COMPUTER FUTURES
Publiée le
C#
SQL
6 mois
Paris, France
Développer et maintenir des applications de haute qualité, performantes et évolutives, en fonction des besoins métier. Traduire les cas d’usage applicatifs en implémentations fonctionnelles et techniques. Concevoir, construire et maintenir un code réutilisable et fiable, en respectant les bonnes pratiques de développement, de sécurité, de tests et de documentation. Mettre en œuvre des solutions basées sur les composants Azure (queues, functions, blob storage) afin d’assurer une architecture moderne et cloud-native. Collaborer étroitement avec les parties prenantes métier, les business analysts, les architectes et les autres équipes de développement. Estimer la charge de travail et fournir des délais précis pour les livrables projet. Identifier les points de blocage, diagnostiquer les problèmes et proposer des solutions efficaces pour garantir la performance et la fiabilité du système. Rédiger et maintenir une documentation technique claire en anglais, et former les membres de l’équipe si nécessaire. Améliorer continuellement les services applicatifs et les processus de développement. Assurer une communication fluide et efficace avec l’ensemble des équipes concernées.
Offre d'emploi
Cloud engineer Sénior (530€ MAX)
BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)
1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Offre d'emploi
OPS DATALAKE Senior Cloud Public/Privé
Deodis
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
54k-59k €
450-530 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à son expertise pour le Centre d'Expertise Data L’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : Assurer le maintien en conditions opérationnelles des plateformes Datalake on prem / AWs / Azure Gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux Contribuer à l’implémentation/automatisation des solutions Effectuer les actions de déploiement sur les environnements (int, preprod et prod) Contribuer à l’amélioration continue des outils d’exploitation et de déploiement Communication auprès du product owner
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
chef de projet technique / Cloud /Devops
Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure
6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
Offre d'emploi
Ingénieur DevOps Cloud Azure
VISIAN
Publiée le
Azure
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour la gestion des évolutions des services d'intégration continue en lien avec le Cloud Azure. le Groupe propose à l'ensemble des IT métiers et Métiers du Groupe, une offre s'appuyant sur des plateformes pour l'accélération de produits innovants métiers. Ces plateformes permettent de tester rapidement de nouvelles technologies et des modèles d'architecture à différents stades de maturité. Dans ce cadre, une institution financière majeure recherche un(e) ingénieur DevOPS pour sa plateforme Azure s'appuyant sur des technologies telles que GitOPS.
Offre d'emploi
Data Engineer / Développeur Java Full Stack
AVA2I
Publiée le
Angular
API REST
AWS Cloud
1 an
Île-de-France, France
Dans le cadre du développement de ses plateformes data et applicatives, notre client recherche un Data Engineer / Développeur Java Full Stack afin de renforcer ses équipes techniques. Vous interviendrez sur l’ensemble de la chaîne de traitement de la donnée, de la collecte à la visualisation, dans un environnement moderne orienté microservices, cloud et DevOps . Missions principales 🔹 Développement backend & collecte de données Concevoir et développer des composants en Java (Spring, Hibernate) Mettre en place des modules de collecte de données (API, fichiers, bases de données) Développer et maintenir des API REST/SOAP en respectant les bonnes pratiques (TDD, sécurité) Implémenter des solutions d’authentification ( OAuth2, SSO ) 🔹 Traitement de données (Big Data) Participer à la mise en œuvre de traitements sous Apache Spark 3 Optimiser les pipelines de données (collecte, transformation, distribution) Assurer la performance et la fiabilité des traitements 🔹 Développement Front & DataViz Développer des interfaces utilisateurs en Angular Concevoir des dashboards et rapports sous Power BI Collaborer avec les équipes métier pour valoriser la donnée 🔹 DevOps & Infrastructure Déployer et gérer des applications sur des clusters Kubernetes Participer à l’optimisation des environnements (CI/CD, performance) Collaborer avec les équipes infrastructure pour : le déploiement la gestion des ressources la sécurité applicative 🔹 Qualité & delivery Écrire et maintenir des tests automatisés (Cucumber) Participer au cycle complet de delivery (build, déploiement, mise en production) Assurer le suivi post-production 🔹 Amélioration continue Être force de proposition sur les choix techniques et l’architecture Contribuer à l’amélioration des performances et de la qualité des applications
Mission freelance
POT9054 - Un Consultant MES - DS APRISO
Almatek
Publiée le
AWS Cloud
6 mois
Le Havre, Normandie
Almatek recherche pour l'un de ses client, un Consultant MES - DS APRISO sur Le Havre. Contexte & Objectifs de la mission Le consultant interviendra sur : L’analyse de l’existant et des besoins métiers (production, qualité, maintenance, logistique) Le cadrage fonctionnel MES et le suivi métier L’accompagnement des métiers dans la projection des usages d’une ligne de production digitalisée La réduction des usages Excel et des saisies manuelles Le transfert de compétences vers les équipes internes Périmètre fonctionnel (exemples) Digitalisation de processus aujourd’hui manuels / Excel : Relevés de cotes produit et données process Rapports qualité (LICA, LIVA, PRID, essais) Gammes de retouche et récupération Calculs conditionnels de conformité produit Standardisation des flux de données : Conformité produit Traçabilité long terme Archivage client Analyses statistiques de process (SPC, Once SPC) Autres processus digitalisés : Maintenance niveau 1 & 2 réalisée par le producteur Prise et fin de poste Interaction étroite avec l’exécution des Ordres de Fabrication dans le MES Environnement technique MES : DS Apriso MCS : PTC ThingWorx ERP : SAP ECC6 EHP7 SP5 PLM : 3DEXPERIENCE Data Platform : AWS (plateforme interne) Middleware : MuleSoft Compétences attendues Techniques & fonctionnelles Architecture SI industriels (OT / IT) Projets MES intégrés ERP / PLM / MCS / SCADA Environnements industriels temps réel, qualité, traçabilité Soft skills Animation d’ateliers métiers Capacité de synthèse et de restitution Suivi de projet Force de proposition et adaptabilité Livrables attendus Spécifications fonctionnelles (anglais) Plans de tests (qualification, pré?prod, E2E) Plans d’interfaçage Documentation de formation & modes opératoires PCA Suivi des tickets et ajustements fonctionnels Feuille de route projet et recommandations data
Offre d'emploi
Architecte logiciel à la création d'un portail IA
KEONI CONSULTING
Publiée le
Azure
Copilot
React
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE L’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'architecte logiciel aura pour objectifs d'adapter l'architecture du portail IA et d'aider à la mise en oeuvre des améliorations à apporter au portail IA afin de répondre aux besoins de ses utlilisateurs. A ce titre il sera chargé, en lien avec le chef de projet, de proposer des pistes techniques ou fonctionnelles d'améliorations à partir de la stack technique Open source de RAISE. Il sera en charge de mettre en oeuvre ces pistes et de les documenter afin de permettre ensuite leur maintenance par les concepteurs développeurs de l'équipe. Il sera aussi en charge de prendre en compte les impacts techniques liés aux décisions de la gouvernance IA en réalisant les études d'impacts en cas de modifications structurantes pour le portail IA. Enfin, il sera en charge au sein de l'équipe ""Gouvernance et Mise en oeuvre de l'IA"" et en lien avec les équipes chargées de l'intégration des environnements et de la supervision de la production, de mettre en oeuvre et de maintenir la chaîne CI/CD permettant de délivrer le portail IA. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un excellent relationnel est indispensable afin de savoir prêter assistance à des utilisateurs non technique, notamment en sachant adapter son discours afin de faire comprendre ses idées et être en capacité d'assurer la rédaction de la documentation du portail IA. - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique de la partie Front du portail IA permettant : o un accès sécurisé au catalogue d’assistant IA existant en fonction du profil de l’utilisateur o un parcours d’accueil pour les nouveaux utilisateurs ainsi qu’un accès à des modules de formation de type webinaire o un accès à une FAQ - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique des mécanismes de RAG de la plateforme : o en concevant les architectures possibles de pipelines d'ingestions optimisés en fonction du type de documents en entrée et de leur volumétrie o en concevant et aidant à maintenir les mécanismes de la plateforme permettant de tracer la qualité des données ingérées o en concevant et aidant à maintenir les mécanismes de contrôles du profil utilisateur et des droits d’accès aux informations restituées par un assistant ou un agent IA o en participant à la définition des besoins en solutions de bases de connaissances spécialisées, externes ou intégrées au portail IA, en définissant le protocole et les mécanismes d'ingestion des mises à jour au fil de l'eau ou à intervalles réguliers. - Définir ou faire évoluer la chaîne CI/CD permettant de livrer les évolutions du portail IA dans ses quatres environnements (en lien avec les autres équipes en charge de cette problématique à la DSI) o en assurant le paramétrage et la mise en oeuvre de la chaîne sur le cloud AZURE dans une logique DEVOPS o en maintenant à jour la documentation o en sécurisant les mécanismes de tests permettant de valider le déploiement d'une version ou pour garantir le retour arrière en cas de défaut constaté - La conception et la réalisation de prototypes d’assistants IA ""modèle"" préconfigurés en fonction des besoins spécifiques remontés par les ambassadeurs IA et les utilisateurs non techniques - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 2 & 3) - La mise à jour et l'amélioration de la documentation de la plateforme IA PROFIL Une expérience significative de RAISE, ou de sa stack applicative dans un autre contexte, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)."
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2203 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois