Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 571 résultats.
Freelance

Mission freelance
Expert IA

Cherry Pick
Publiée le
Large Language Model (LLM)
Python
RAG

12 mois
600 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Assistant Technique IA" pour un client dans le secteur du transport Description 🏢 Le Contexte : Démocratiser l'IA à Grande Échelle Vous rejoignez l'équipe Gouvernance et mise en œuvre de l'IA (6 personnes) d'une fédération gérant la retraite de millions de Français. L'enjeu est de structurer et d'innover via un Hub IA et un portail nommé ARIA , mis à disposition de plus de 1000 collaborateurs . Le projet repose sur une logique de Marketplace d'assistants IA : chaque utilisateur peut consommer des outils pré-paramétrés ou fabriquer ses propres assistants pour ses collègues. Actuellement hébergée sur Azure , la plateforme est amenée à basculer en environnement On-premise au cours de votre mission. 🎯 Vos Missions : Évolution, IA et Accompagnement Votre rôle est pivot : vous assurez la robustesse technique du portail tout en étant le traducteur technique des besoins métiers. 1. Développement & Maintenance (Front & Back) : Assurer la maintenance corrective et évolutive du portail basé sur la solution open source RAISE . Améliorer les interfaces ( React ) pour optimiser l'expérience utilisateur. Faire évoluer le Back ( Python/FastAPI ) : gestion des droits, exposition des assistants via API pour les logiciels tiers (CRM, IDE) et suivi de la consommation. 2. Ingénierie IA & RAG : Créer des assistants IA préconfigurés en répondant aux besoins spécifiques des directions métiers. Optimiser l'ingestion de documents et les bases de connaissances (RAG) pour améliorer la qualité des réponses. Réaliser du Prompt Engineering avancé pour accroître la précision des résultats et optimiser les coûts (FinOps). 3. Support & Acculturation : Assurer le support technique de niveau 1 et 2 auprès d'utilisateurs souvent non techniques. Aider à la mise au point des prompts utilisateurs et rédiger la documentation technique et FAQ. Participer à la mise en place de la chaîne CI/CD dédiée aux projets IA.
CDI

Offre d'emploi
Développeur C# / SharePoint H/F

OBJECTWARE
Publiée le
C#
SharePoint

45k-55k €
Metz, Grand Est
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Développeur C# / SharePoint H/F sur le secteur du Metz pour une mission débutant dès que possible. Vos missions : - Développement de solutions en C# / .NET - Conception et personnalisation de SharePoint (Online / SPFx) - Intégration avec l’écosystème Microsoft (Power Platform, API…) - Maintenance évolutive et corrective - Participation aux rituels Agile Nous vous offrons : un package salarial attrayant, assorti de nombreux avantages complémentaires (ticket restaurant, mutuelle...), un environnement de travail professionnel et stimulant. Si vous vous reconnaissez dans ce descriptif, ce poste est fait pour vous alors n'hésitez pas à postuler.
Freelance

Mission freelance
Expert développement Python / IA générative - Nantes - 1311

ISUPPLIER
Publiée le

9 mois
350-420 €
Nantes, Pays de la Loire
Missions principales : 1. Développement et programmation : 1. Contribution au développement de la plateforme python (évolution d'architecture, développement de nouveaux modules et librairies) 2. Contribution à la maintenance logicielle 3. Participer à l'amélioration continue des performances (prompt engineering, développement chaine de traitement IA, optimisation des traitements) 4. Maitrise des pipelines de déploiement 5. Participation active aux revues de code 2. Collaboration avec les métiers et les Business Analysts 1. Travailler en synergie avec les équipes métiers et les Business Analysts pour comprendre les besoins et les enjeux spécifiques. 2. Traduire les exigences métier en solutions techniques innovantes et adaptées. 3. Pilotage technique des projets en autonomie 3. Recherche et innovation : 1. Mener une veille technologique sur les dernières avancées en IA générative. 2. Proposer des idées innovantes pour de nouveaux projets ou améliorations. 4. Documentation : Rédiger une documentation technique claire Profil recherché : • Formation : Diplôme en informatique • Expérience : Minimum 5 ans d'expériences en développement logiciel Python. Développement & industrialisation • Bonne maîtrise du langage de programmation Python et des bibliothèques associées (Langchain, Pandas, etc.). • Maitrise de l'anglais • Connaissance des principes de l'IA générative et de la RAG • Esprit de synthèse et aptitude à travailler en équipe multidisciplinaire et à communiquer efficacement avec des interlocuteurs variés. • Forte curiosité intellectuelle, autonomie dans l'apprentissage et proactivité dans la résolution de problèmes. • Des connaissances en front-web (Angular) sont un plus Environnement technique : Python, LangChain, LangGraph, Azure, AWS, scikit-learn, LLM (Azure OpenAI, AWS Bedrock, Claude)
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance

Mission freelance
Ingénieur Plateformes Kubernetes / OpenShift

Deodis
Publiée le
Docker
Kubernetes
Openshift

1 an
350-500 €
Annecy, Auvergne-Rhône-Alpes
(Merci de ne pas répondre si vous n'avez pas ces compétences !) Les taches de l’équipe sont les suivantes : · Suivi des architectures proposées par le pôle du client pour s’assurer qu’elles respectent le cahier des charges BPCR et les exigences du client final · Participation aux réunions d’adoption de nouvelles offres avec les mêmes responsabilités que le point précédent. · Participation aux upgrades des plateformes et exercices PSI (HNO). · Gestion capacitaire des plateformes. · Participation à la gestion des incidents sur les plateformes. · Support aux AppOps et aux utilisateurs sur l’utilisation des plateformes et des services proposés par l’équipe. · Création et MCO des images docker de référence utilisées sur les plateformes (Debian, alpine, Ubuntu). Un certain nombre d’images middleware (php, apache, JRE, python, Terradata) sont fournies s’intégrant directement à l’écosystème du client · Développement interne en python (script ou API) permettant de gérer les plateformes, fournir des dashboards, exposer des métriques, afficher le respect des règles de déploiement et configuration. (Technologies : FastApi, Gitlab, Gitlab-ci, python, Hugo, Gitlab Pages) · Création de dashboards Grafana pour suivre la plateforme et apporter de la visibilité aux utilisateurs finaux.
Freelance
CDI

Offre d'emploi
Tech Lead SAS

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission Dans le cadre de l'équipe décisionnelle et data Levallois a besoin de renforcer sa capacité à faire sur les projets du domaine Indemnisation IARD Le parc applicatif existant est intégralement développé à l'aide des solutions de l'éditeur SAS Institute. Objectifs et livrables La Société devra fournir les prestations suivantes : Recueil et formalisation des besoins métiers Conception / développement SAS N2/N3 pour les incidents en production Contribution au pilotage de l’activité Profil / compétences : Expérimenté Connaissances du domaine Indemnisation IARD Capacité à faire exprimer et formaliser un besoin métier Capacité à piloter un portefeuille de demandes et suivre leur réalisation Capacité à comprendre la logique applicative et l’articulation avec le métier Capacité à rédiger des spécifications Capacité à prendre ou charge ou piloter les développements Capacité à comprendre l’architecture du SID et le faire évoluer en fonction des besoins métiers Expérience avérée dans la réalisation d’application décisionnelle SAS en environnement « industriel » de l’intégration des données à la restitution. La qualité industrielle couvre les aspects supervision des traitements, reprise des traitements, sauvegarde des données, instructions de travail … nécessaires à une exploitation « industrielle ». Capacité à prendre en charge des incidents et/ou coordonner leur résolution Expertise SAS (SAS Base, SAS Macro, SAS SQL, SAS DB2, …. ), maitrise des outils SVN, Confluence, JIRA et ServiceNow Définition des missions : Recueil et formalisation des besoins métiers o Compréhension des enjeux métier o Proposition de solutions en maximisant la réutilisation du patrimoine applicatif o Validation et conception fonctionnelle détaillée de la solution o Devis / planning Conception / développement SAS o Conception technique o Réalisation, suivi et validation des développements o Mise en production o En direct ou après délégation N2/N3 pour les incidents en production o Traitement des incidents en production et rattrapage de données o Correction des développements et re-livraison en production si nécessaire o Communication de l’avancement et de la résolution o En direct ou après délégation Contribution au pilotage de l’activité o Reporting opérationnel o Contribution aux points métiers o Contribution au plan de charge de la structure
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
CDI

Offre d'emploi
Ingénieur Développeur Java/ Angular & Vue.js

CAT-AMANIA
Publiée le
Angular
Java
Vue.js

47k-58k €
Hauts-de-Seine, France
Vous rejoindrez notre équipe en charge des activités de maintenance des projets en développement Java. Vos missions consisteront à contribuer: Evaluation des études d'impacts, Rédaction et mise à jour des spécifications techniques, Développement des composants, Réalisation des tests unitaires, Réalisation des tests d'enchaînement des composants, Gestion de projets en environnement Agile, Utilisation de JIRA pour le pilotage des sprints, Gestion et résolution des incidents, Assurer la maintenance évolutive et corrective
CDI
Freelance

Offre d'emploi
Concepteur / Développeur C#

INFOTEL CONSEIL
Publiée le
C#

2 ans
Île-de-France, France
Nous accompagnons l’un de nos clients grands comptes dans le renforcement de ses équipes et recherchons à ce titre un développeur C# expérimenté. Mission longue durée : ==> Contexte : MCO d'une application métier de gestion de contrats d'assurance de personnes (développement spécifique) ==> Activités : Analyse technique, développement, tests unitaires, gestion des non-conformités, maintenance (curative/évolutive/préventive), traitement des incidents prod, déploiement ==> Stack technique : C#, Visual Studio, GitLab ==> Profil : Développeur confirmé, autonome, rigoureux, esprit d'équipe ==> Localisation : Ile de France - 2j/semaine télétravail
Freelance

Mission freelance
Senior Data Engineer AWS

Celexio
Publiée le
PySpark
Python
Terraform

3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
CDI
Freelance

Offre d'emploi
Développeur FULL STACK - Anglais Bon niveau - Expertise SpringBoot, Kafka, MongoDB - H/F

HELPLINE
Publiée le
Apache Kafka
Mongodb
Springboot

3 ans
40k-45k €
400-550 €
59800, Lille, Hauts-de-France
Développeur FULL STACK - Anglais Bon niveau - Expertise SpringBoot, Kafka, MongoDB - H/F Par défaut Compétences Marcq-en-Barœul, FranceLes employés travaillent en mode hybride Temps plein Description de l'entreprise Et si vous choisissiez plus qu’un simple job ? HELPLINE est spécialisée dans l’infogérance du support utilisateur et la mise en œuvre d’une expérience collaborateur augmentée par l’IA, où l’expertise humaine et la technologie s’enrichissent mutuellement. Ses équipes assurent le support utilisateur, le support applicatif, le support de proximité, la gestion des actifs IT et la GRC (Gouvernance, Risque et Conformité). Sa mission est double : soutenir les besoins opérationnels des DSI et des métiers ; et offrir aux collaborateurs une expérience fluide et fiable, alignée avec les standards des marques grand public. Intervenant en France et dans le monde, HELPLINE compte 2500 collaborateurs au service de plus de 200 clients. Elle affiche un CA de +200 M€ en 2025. HELPLINE fait partie d’Everience, groupe international de conseil et de services numériques augmentés, pionnier de la symbiose Homme-IA en entreprise. Description du poste Vous participerez à la construction et à l’évolution d’un ensemble de micro‑services. Vous interviendrez sur toute la chaîne : conception , développement , supervision , performance et accompagnement au Run . Vos missions : Concevoir et développer des micro‑services performants. Être capable de proposer et de mettre en œuvre des architectures ou logiques spécifiques complexes lorsque nécessaire. Participer au cadrage technique des évolutions et contribuer à la rédaction des documents de conception. Collaborer quotidiennement avec les équipes (PO, BA, développeurs) : compréhension du besoin, revues de code, tests unitaires et intégration. Réaliser les tests d’intégration et participer activement à la validation fonctionnelle. Suivre les mises en production, analyser les comportements en environnement réel et assurer la phase d’hypercare. Assurer la passation de connaissances et accompagner les équipes Run dans la prise en charge des nouveaux services. Contribuer à la cohérence globale des solutions et à l’amélioration continue dans un environnement multi‑équipes. Superviser l’état des micro‑services via Datadog , analyser les alertes et anticiper les dégradations de performance. Qualifications ⭐ Et si on parlait de vous ? Avec au moins + 4 ans d’expérience en développement Java , vous avez déjà démontré votre capacité à intervenir sur des architectures modernes et des environnements exigeants. Votre expertise Maîtrise confirmée de Java (8/11/17) et de l’écosystème Spring , notamment Spring Boot . Très bonne compréhension des architectures micro‑services , de leur découpage et de leurs enjeux (scalabilité, résilience, communication entre services). Patique des API REST , du design d’API et des échanges de données JSON . Compétences avancées en debug Java : analyse de logs, traces, stacktraces, compréhension des flux et outils de supervision. Aisance avec Git et un Git Workflow structuré. Bonne connaissance des chaînes CI/CD (Jenkins, GitLab CI, Azure DevOps). Compréhension des environnements de monitoring / observabilité , idéalement Datadog (métriques, alertes, dashboards). Connaissance des modèles d’échanges inter‑services : APIs, messaging, événements (une expérience Kafka est un vrai plus). À l’aise avec les bases SQL / NoSQL , leurs optimisations et contraintes de performance. Anglais technique , pour la lecture de documentation et des échanges ponctuels.
CDI

Offre d'emploi
Release Manager / Développeur Salesforce (H/F)

CELAD
Publiée le

48k-50k €
Paris, France
Contexte Au sein d’une DSI d’un grand acteur du secteur Banque & Assurance , vous rejoignez une équipe agile (SCRUM) intervenant sur une plateforme CRM basée sur Salesforce, utilisée à grande échelle et fortement intégrée au système d’information. Dans ce cadre, vous occupez un rôle hybride mêlant release management et développement Salesforce . Missions Release Management (≈ 50 %) Pilotage des mises en production Salesforce (planification, coordination, validation) Gestion du cycle de release dans un environnement agile (type SAFE) Contribution aux processus CI/CD et utilisation d’outils DevOps (Copado, DevOps Center ou équivalent) Développement Salesforce (≈ 50 %) Développement et maintenance des composants spécifiques : Apex, Lightning Web Components (LWC), Visualforce, batchs Rédaction et maintenance des tests Participation aux phases de recette et aux évolutions fonctionnelles Environnement technique Salesforce (SaaS), API, batchs, outils DevOps, architecture SI complexe, méthodologies agiles (SCRUM / SAFE)
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
CDD
CDI
Freelance

Offre d'emploi
Chef de projet technique création d'un portail IA

KEONI CONSULTING
Publiée le
Azure
Python
RAG

18 mois
20k-60k €
100-550 €
Paris, France
Contexte du besoin : Le client cherche à structurer ses projets de valorisation des données et d’innover au travers de l’accès à différentes IA. L’équipe Gouvernance et mise en oeuvre de l'IA, est à ce titre, en charge de la mise en œuvre. l’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets IA MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'assistance technique a pour objectifs d'effectuer la maintenance corrective et évolutive du portail IA . Une bonne partie de nos utilisateurs étant non techniques et peu familiarisés avec l'IA, il lui sera demandé d'aider à la réalisation ou à la mise au point des prompts à partir des besoins exprimés par les utilisateurs. Il sera amené à prendre en charge les tickets d'incidents ou d'assistance de niveau 1 (voire 2 selon profil) aux utilisateurs du portail. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un bon relationnel est indispensable afin de savoir prêter assistance à utilisateurs non technique, notamment en sachant adapter son discours et aider à la rédaction de la documentation. TACHES - La maintenance adaptative et corrective de la partie Front du portail IA : o en mettant à jour ou en améliorant le catalogue d’assistant IA existant en fonction des besoins utilisateurs o en proposant des pistes d'améliorations à apporter aux IHM pour améliorer l'expérience utilisateur - La maintenance corrective de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - La réalisation d’assistants IA préconfigurés en fonction des types de besoins remontés par les ambassadeurs IA et les utilisateurs non techniques o en réalisant des assistants IA à partir d'expressions de besoins fournis o en apportant des améliorations à l'ingestion de documents ou de bases de connaissances afin d'améliorer la qualité des réponses en sortie des assistants ou agents IA o en proposant des améliorations des prompts utilisateurs pour améliorer la précision du résultat ou diminuer les coûts - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 1 & 2 selon profil) o en analysant la cause du dysfonctionnement à partir des logs applicatives (avec escalade vers les autres membres de l'équipe au besoin) o en proposant des mises à jour du parcours d’accueil et d'accompagnement des utilisateurs afin de limiter les causes de remontées des utilisateurs o la mise à jour de la FAQ en fonction des retours des utilisateurs" PROFIL : Une expérience significative d'environ 6 mois de RAISE, ou de sa stack applicative, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)
Freelance

Mission freelance
Data Analyst Lutte contre la fraude

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python

2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
CDI

Offre d'emploi
Cloud Engineer Azure / GCP

Everwise
Publiée le
Azure
DevSecOps
Github

2 ans
40k-55k €
400-550 €
Île-de-France, France
Fiche de poste – Cloud Engineer Azure / GCP (Freelance / Mission) Contexte Dans le cadre du renforcement des équipes Cloud, nous recherchons des profils Cloud Engineer spécialisés sur les environnements Azure et/ou GCP , avec une forte orientation DevOps et sécurité. Le marché étant concurrentiel sur ce type de profils, nous recherchons des consultants efficaces, rapidement opérationnels et capables de s’intégrer dans des environnements exigeants. Missions principales Concevoir, déployer et maintenir des infrastructures Cloud (Azure / GCP) Automatiser les déploiements via des outils DevOps (CI/CD) Développer des scripts et outils en Python Gérer le versioning et la collaboration via GitHub Mettre en place et maintenir des pratiques de sécurité (DevSecOps) Utiliser des outils de sécurité type Snyk et Checkmarx Participer à l’optimisation des performances et des coûts Collaborer avec les équipes techniques (Dev, Ops, Sec) Compétences requises Techniques Cloud : Microsoft Azure et/ou Google Cloud Platform (GCP) DevOps : CI/CD, GitHub Langages : Python Sécurité : Outils : Snyk, Checkmarx Bonnes pratiques DevSecOps Infrastructure as Code (Terraform apprécié) Fonctionnelles Bonne autonomie Capacité à travailler dans des environnements agiles Esprit d’analyse et de résolution de problèmes Profil recherché Expérience : 5 à 7 ans minimum en environnement Cloud Profil opérationnel, capable de délivrer rapidement Bonne communication avec les équipes techniques
2571 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous