Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 721 résultats.
Mission freelance
Product Tech Lead – IA / GenAI - English - Full remote
Net technologie
Publiée le
Agent IA
Azure AI
IA Générative
6 mois
550-600 €
France
🚀 Product Tech Lead – IA / GenAI (Azure) Dans le cadre d’une transformation digitale ambitieuse , nous recherchons un(e) Product Tech Lead pour piloter une solution stratégique basée sur la Data & l’IA Générative , dédiée à la performance des équipes commerciales. 🎯 Objectif : concevoir et déployer une plateforme data-driven fournissant des insights intelligents et des outils innovants pour soutenir la croissance business. 🚀 Missions Définir et piloter l’ architecture technique & data end-to-end Garantir la scalabilité, sécurité et performance des solutions Encadrer une équipe transverse (Dev, Data, AI Engineers) Concevoir et livrer des fonctionnalités IA / GenAI (Azure OpenAI) Structurer les pipelines data , gouvernance et cycle de vie des modèles Assurer l’intégration avec les systèmes ( SAP, Salesforce ) Superviser les déploiements (Azure / Fabric) avec pratiques DevOps, MLOps, LLMOps Collaborer avec le Product Manager pour aligner valeur métier & faisabilité technique
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
Data Scientist (H/F)
QODEXIA
Publiée le
Docker
GitLab CI
MLOps
10 jours
Paris, France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. MISSION GLOBALE : Notre client est un grand groupe industriel de référence dans le secteur défense & technologies. Dans le cadre du développement d'une V0 sur un projet de détection d'éléments pour le secteur Naval (analyse d'images et flux vidéos), nous recherchons un Data Scientist Senior à forte séniorité et capacité de leadership. Vous participerez activement à la phase de scoping et au cadrage des besoins IA avec les équipes métiers, tout en concevant, développant et validant des solutions algorithmiques de Computer Vision/DRI et en assurant le cycle de vie complet des modèles (MLOps) dans un environnement de sprint condensé.
Mission freelance
Data Analyst sur Aix-en Provence
EterniTech
Publiée le
Hadoop
Python
1 an
400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Je recherche pour un de mes clients un Data Analyst sur Aix-en Provence CONTEXTE DE LA MISSION : Le client dans le cadre de son activité analyse de la donnée, recherche un profil analyste DATA afin d'intégrer l'équipe sur le site d'Aix-en-Provence. Le profil aura pour mission de mettre en œuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'étudier leur cohérence et leur impact dans les processus métiers sensibles. DESCRIPTION DE LA MISSION Définition des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire - Définition de la prestation attendue : - Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en œuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données (ciblage, analyse de donnée ou prédiction) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
Mission freelance
Développeur Back-End Python Senior (H/F)
Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD
1 an
520-580 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme technologique stratégique, nous recherchons un développeur back-end Python expérimenté pour intervenir sur une application de traitement et d’analyse d’images satellites. Vous rejoindrez une équipe de développement déjà en place afin de contribuer à l’évolution fonctionnelle et technique d’une solution existante dédiée à la détection d’objets d’intérêt sur des données satellitaires. Votre mission consistera à travailler sur une base de code importante et mature, en participant à l’amélioration continue de l’architecture, des performances et des fonctionnalités. Vous interviendrez notamment sur l’analyse de problématiques complexes, l’optimisation de la gestion des données et la mise en place de solutions robustes permettant d’assurer la fiabilité et la scalabilité de la plateforme.
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Développeur Fullstack Senior (Cloud & Data)
Nicholson SAS
Publiée le
Angular
Apache Airflow
BigQuery
18 mois
400 €
Saint-Denis, Île-de-France
Nous recherchons un Développeur Fullstack Senior pour accompagner une cellule de référencement DATA au sein d'un grand compte du secteur de l'énergie. Vous interviendrez sur la conception et la mise en œuvre de solutions innovantes d'analyse et de restitution de données. 📦 Détails de la mission Localisation : Saint-Denis (93) – Rythme : 2 à 3 jours de présentiel par semaine obligatoires. Date de démarrage : 11/05/2026 Date de fin prévisionnelle : 15/11/2027 Budget (TJM Achat max) : 400 € 🎯 Vos Missions Sous la responsabilité du lead technique, vos principales missions incluent : Conception & Développement : Identifier, concevoir et livrer des solutions fullstack répondant aux besoins prioritaires de restitution de données. Architecture & Guidelines : Contribuer activement aux "Guidelines" de l'entité (bonnes pratiques de développement et de déploiement). Documentation : Rédiger les dossiers de conception technique et d’exploitation pour garantir la pérennité des solutions. Veille & Innovation : Assurer une veille technologique constante et proposer des solutions innovantes pour optimiser les processus existants. 🛠️ Expertise Technique Requise 1. Environnement Cloud & Data (Maîtrise indispensable) : GCP (Google Cloud Platform) : BigQuery, Composer, Airflow, DataProc, DataFlow. Infrastructure as Code : Terraform, Ansible. Environnement : Hybride (On-premise / Cloud). 2. DevOps & MLOps : CI/CD & Versioning : Git, GitLab-CI, Jenkins, GitOps. Conteneurisation : Docker, Kubernetes, Helm. Observabilité & FinOps : ELK, Grafana, Prometheus, Google Monitoring. Optimisation des coûts cloud. 3. Développement Fullstack : Backend : Python (Expertise solide). Frontend : Vue.js et/ou Angular.
Mission freelance
Ingénieur Qualité senior
ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
Sonarqube
1 an
Toulouse, Occitanie
Contexte de la mission : 2 jours de TT/semaine, mission jusqu'à fin d'année à minima Dans le cadre du renforcement de son dispositif d’Assurance Qualité Logicielle, notre client dans le secteur de l'environnement souhaite structurer et améliorer la qualité de ses produits applicatifs. Rattaché(e) à un pôle Qualité, vous interviendrez en étroite collaboration avec les équipes de développement et de validation, avec pour objectif d’industrialiser les pratiques qualité et d’améliorer la performance globale des projets. Objectifs de la mission Améliorer la qualité des applications livrées Exploiter les indicateurs existants pour piloter la qualité logicielle Limiter et maîtriser la dette technique Harmoniser les pratiques au sein des équipes dans un contexte de transformation digitale Missions principales 1. Analyse et pilotage de la qualité Exploiter les dashboards existants alimentés par les outils (JIRA, SonarQube) Analyser les métriques : qualité de code, maintenabilité, fiabilité, sécurité Identifier les points de vigilance et prioriser les actions à mener 2. Mise en place et suivi des plans d’action Co-construire des plans d’amélioration avec les équipes techniques Suivre leur mise en œuvre dans les cycles projet (PI, sprints, etc.) Assurer le suivi des actions et relancer les parties prenantes si nécessaire 3. Accompagnement et acculturation Sensibiliser les équipes aux enjeux de qualité logicielle Expliquer les règles et standards (notamment issus de SonarQube) Animer ponctuellement des sessions de partage ou de formation 4. Amélioration continue Mettre en place une boucle itérative d’analyse et de feedback Contribuer à l’évolution des pratiques et des standards qualité Périmètre La mission s’inscrit dans des projets structurants autour de plateformes digitales métiers, dans des environnements à fort enjeu de qualité et de performance.
Mission freelance
Consultant décisionnel BI
Codezys
Publiée le
Git
Informatica
Java
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet vise à fournir aux utilisateurs des fonctionnalités de reporting et d’analyse de données, afin de consolider et restituer de manière fiable l’ensemble des données issues de CCMA. L’équipe dédiée est composée d’une dizaine de collaborateurs, incluant un chef de projet / Scrum Master, un Product Owner (Business Analyst), des développeurs BI, des experts DevOps, et un Lead Technique. Cette application existe depuis plus de six ans, dont les deux dernières années ont été consacrées à des travaux techniques de refonte. Nous souhaitons réaliser une reconfiguration de nos dashboards dans le but d’améliorer l’application. Il sera nécessaire de partir de l’état actuel, de le challenger en collaboration avec les représentants des utilisateurs, et de proposer des évolutions afin de mieux répondre à leurs besoins. Objectifs et livrables Le consultant spécialisé en décisionnel BI interviendra selon trois axes principaux : Analyser les besoins fonctionnels et techniques pour concevoir une architecture de données pertinente et performante. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports destinés aux métiers, tout en assurant leur accompagnement ou leur formation pour une exploitation optimale. Il pourra également mobiliser, si nécessaire, les référents techniques liés aux différentes composantes du système, notamment lorsque celles-ci s’éloignent d’un cadre BI classique (par exemple, clusters Big Data, bases NoSQL, absence d’ETL pour l’intégration des données, etc.). Ce professionnel doit faire preuve de qualités essentielles pour mener à bien ses missions : Autonomie, rigueur et capacité à proposer des solutions innovantes Capacité d’adaptation et esprit d’équipe Forte aptitude à l’analyse et à la synthèse Il se spécialise dans la datavisualisation, notamment la création, l’amélioration, et le finement des dashboards, tout en étant à l’écoute des métiers pour affiner leurs besoins. Une expérience d’au moins cinq années dans un rôle similaire est exigée. La maîtrise de Tableau serait un atout supplémentaire. Activité principale : Analyser les besoins fonctionnels et techniques Identifier les données de production pertinentes pour répondre à ces besoins Développer les processus d’intégration des données Modéliser et enrichir les datawarehouses et datamarts Produire des rapports ou tableaux de bord clairs, compréhensibles par les utilisateurs et répondant à leurs attentes Vérifier la qualité et la performance de ses livrables Participer aux activités et cérémonies agiles de l’équipe de développement Activité secondaire : Mettre à jour la documentation applicative
Offre d'emploi
Ingénieur DevOps / Cybersécurité (SOC / SIEM)
AVA2I
Publiée le
CyberSoc
Javascript
Python
12 ans
Île-de-France, France
Nous recherchons un profil hybride DevOps + Cyber (SOC/SIEM) , capable de combiner expertise technique en sécurité et automatisation pour industrialiser les processus SIEM et améliorer la détection des incidents. Missions principales Automatiser les processus SIEM et les workflows de sécurité Industrialiser les déploiements et pipelines CI/CD Participer à la détection d’incidents et à l’amélioration des use cases sécurité Contribuer à la documentation et aux bonnes pratiques DevOps / Cyber Compétences techniques SIEM (idéalement Elastic) Création de scénarios de détection JavaScript (important) Python DevOps & CI/CD (central pour le poste) Kibana / DSL Connaissance ETL / Pentaho (facultatif)
Offre d'emploi
Business Analyst - Niveau 2 (Confirmé)
Codezys
Publiée le
Confluence
Gestion des risques
JIRA
38 160-43 500 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission L'Hypervision est l'entité responsable de la supervision et de la gestion des incidents concernant plusieurs chaînes communicantes, dans le but d'assurer la performance optimale en production. Le profil sélectionné rejoindra l’équipe de Pilotage de la Production, intégrée à l’Hypervision de la chaîne communicante « Marché de Masse ». Sa mission inclura le suivi des performances en production, la télédistribution des logiciels sur le parc de compteurs Linky et les concentrateurs, ainsi que la conception de tableaux de bord pour l’Hypervision et les opérations de supervision. Le candidat idéal est un data analyste doté d’une forte appétence pour la data, d’une sensibilité métier, d’un excellent relationnel, ainsi que d'une capacité à animer et à présenter. Une expérience préalable dans le traitement et l’analyse de données est indispensable. Le projet requiert une expérience comprise entre 2 et 4 années. Objectifs et livrables Activité principale Le profil retenu sera chargé de : Suivre et analyser un ou plusieurs indicateurs de performance à l’échelle nationale et en région (DR). Expliquer les variations et mettre en œuvre des actions correctives. Concevoir des tableaux de bord de pilotage ou opérationnels pour le suivi de la performance. Consolider les données et produire des rapports analytiques sur les variations de performance. Maîtriser le fonctionnement de la chaîne communicante « Marché de Masse ». Assurer le suivi de tous les événements liés à la production. Préparer, animer et représenter la production du Marché de Masse lors des différents comités. Analyser, préparer et animer des réunions autour des indicateurs de performance, en coordination avec les parties prenantes. Investiguer de manière autonome d’éventuelles anomalies ou signaux faibles dans les données, en proposant des pistes d’analyse non envisagées initialement. Remettre en question les processus existants et proposer des axes d’optimisation basés sur les analyses effectuées. Identifier et activer des leviers d’amélioration en collaboration avec les équipes métiers et techniques. Être référent sur l’indicateur en proposant une évolution de la méthode de calcul, du périmètre ou de sa pertinence. Participer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe. Activité secondaire Assurer le suivi de la performance dans le cadre de pilotes et d’expérimentations. Suivre la performance sur des périmètres spécifiques, en fonction des actualités de la production. Capitaliser et partager les connaissances via la rédaction de documents. Rédiger et diffuser un reporting quotidien transversal à l’ensemble des chaînes.
Offre d'emploi
senior staff engineer - Plateforme - Marseille - H/F
EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python
80k-100k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
Mission freelance
Data Scientist
Codezys
Publiée le
Machine Learning
Python
Pytorch
12 mois
340-430 €
Lille, Hauts-de-France
Contexte de la mission Au sein de l’équipe Recommandation, le candidat retenu jouera un rôle clé dans l’exploration et la mise en œuvre de nouveaux algorithmes visant à enrichir nos systèmes de recommandation, essentiels au bon fonctionnement de notre site. La mission consiste à concevoir, prototyper et valider des solutions innovantes reposant sur l’intelligence artificielle (IA) et l’apprentissage automatique (ML), afin d’améliorer l’expérience utilisateur et de répondre aux enjeux métier liés à la personnalisation. Vos missions principales seront les suivantes : Veille et innovation autour des systèmes de recommandation : Suivre activement les dernières avancées en IA et ML (Deep Learning, apprentissage par renforcement, etc.). Identifier et évaluer les technologies en lien avec les cas d’usage, notamment en lien avec les Large Language Models (LLM) et l’IA générative, pour définir leur pertinence et leur potentiel d’intégration. Développement et expérimentation : Concevoir, réaliser et tester des Proof of Concept (PoC) et des Minimum Viable Products (MVP) performants et sécurisés, afin de valider la faisabilité technique des solutions envisagées. Cette étape inclut une approche itérative pour maximiser l’efficacité des prototypes. Analyse de données et modélisation : Explorer des jeux de données complexes pour identifier des patterns, insights et opportunités d’amélioration. Concevoir, entraîner et affiner des modèles d’IA adaptés aux cas d’usage métiers, afin d’optimiser la pertinence des recommandations générées. Travail en équipe et partage des connaissances : Collaborer étroitement avec les équipes métiers, les Product Owners et les équipes transverses (notamment AAAI). Comprendre leurs besoins, échanger sur les avancées techniques, et assurer une documentation claire et précise des choix et des résultats obtenus. Intégration et amélioration continue : Travailler avec l’équipe AI Capabilities pour l’intégration et le déploiement des solutions IA sur les plateformes existantes (ML Solution, GenAI Solution). Contribuer à l’évolution des systèmes en intégrant les retours d’expérience et en adaptant les modèles en continu pour garantir leur performance et leur adaptéibilité. Ce poste nécessite une forte capacité d’auto-apprentissage, un esprit d’innovation, ainsi qu’une aptitude à travailler en équipe dans un environnement dynamique et technologique en constante évolution.
Mission freelance
101040/expertise en développement de Tests Python - Test Automation,Platform Testing
WorldWide People
Publiée le
Automatisation
Python
6 mois
400-550 €
Les Clayes-sous-Bois, Île-de-France
Mission d'expertise en développement de Tests Python - Test Automation,Platform Testing La prestation se situe dans l'équipe Validation Hardware, dans le cadre de la validation des systèmes haut de gamme ATOS/EVIDEN (nouveaux systèmes et états de maintenance firmware des systèmes en clientèle). Elle couvre les aspects suivants : - prendre connaissance des spécifications et du design des systèmes - rédiger les cas de tests, avec l'assistance d'un valideur expérimenté - développer les tests automatiques correspondants aux cas de tests, dans l'environnement de test de l'équipe - rédiger un rapport hebdomadaire sur l'avancement des tâches - enrichir les tests automatiques avec la vérification des corrections de bugs o Nous recherchons donc un profil expert en développement de Tests Python avec des connaissances avancées en infrastructure CI/CD et connaissances générales des architectures des systèmes informatiques (réseaux, processeurs, mémoires, BIOS, FPGA, ...). Les qualifications demandées sont :Python,Test Automation,Platform Testing
Mission freelance
Développeur Senior Smart Automation & IA Agentique / Dataiku certifié/ LLM Mesh / Python
Octopus Group
Publiée le
Agent IA
CI/CD
Dataiku
6 mois
520-620 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine de la finance, un développeur sénior en Smart Automation & IA Agentique pour concevoir, mettre en œuvre et industrialiser des solutions avancées d'automatisation des processus. Ces solutions s'appuient principalement sur la plateforme Dataiku et ses fonctionnalités LLM Mesh, qui permettent l'intégration de modèles linguistiques et d'agents IA dans des flux de travail automatisés. L'objectif de l'équipe est de créer des automatisations intelligentes capables d'orchestrer les données, les systèmes d'application et les agents IA afin d'optimiser et de simplifier les processus opérationnels. Principales responsabilités : 1. Concevoir des solutions d'automatisation intelligente : Concevoir des solutions d'automatisation des processus à l'aide de la plateforme Dataiku. Définir des architectures d'automatisation combinant : des pipelines de données l'orchestration des workflows l'intégration avec les systèmes d'application des agents IA Exploiter le LLM Mesh de Dataiku pour intégrer des modèles linguistiques dans les processus automatisés. 2. Développer des solutions d'IA agentique : Concevoir et mettre en œuvre des agents IA capables d'exécuter ou d'assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh. Mettre en œuvre une logique d'orchestration entre : les agents IA les pipelines de données les systèmes d'application. 3. Industrialisation et intégration : Construire et maintenir des pipelines et des workflows automatisés sur la plateforme Dataiku. Intégrer des solutions d'automatisation aux systèmes informatiques existants via des API et des services. Appliquer les meilleures pratiques en matière d'industrialisation : contrôle de version surveillance automatisation du déploiement gouvernance des workflows. 4. Collaborer avec les équipes informatiques : Travailler en étroite collaboration avec les équipes informatiques en charge des systèmes impliqués dans les processus automatisés. Concevoir des mécanismes d'intégration avec les applications existantes. Contribuer à la définition de modèles d'intégration et de normes techniques. 5. Contribuer à la plateforme d'automatisation intelligente : Contribuer à l'évolution des capacités d'automatisation intelligente et d'IA agentique. Définir des normes de développement et d'architecture pour l'automatisation. Accompagner les profils techniques juniors. Promouvoir les meilleures pratiques en matière d'automatisation et d'utilisation des modèles de langage (LLM). Environnement technique : Plateforme Dataiku LLM Mesh API et services d'application Environnements cloud (AWS, Azure ou GCP)
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- imposition des dividendes
- Etat du marché 2026: rebond ou stagnation ?
- Passer de freelance en portage : quelle société choisir
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
721 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois