L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 491 résultats.
Mission freelance
Software Engineer Professional
Codezys
Publiée le
.NET CORE
Angular
Middleware
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le client demeure confidentiel. La mission se déroulera à Lyon , avec une possibilité de télétravail partiel, tout en exigeant une présence régulière sur site pour assurer une collaboration efficace. Le profil recherché doit bénéficier d'une expérience comprise entre 2 et 5 ans . Ce contexte s’inscrit dans une démarche stratégique visant à renforcer la performance et la fiabilité d’un système clé pour l’activité du client. Objectifs et livrables Contexte : L’application concernée constitue un système décisionnel et transactionnel classé comme critique, pilotant des flux haute priorité ayant un impact direct sur la production d’un site industriel. Dans le cadre d’un programme de modernisation, les objectifs principaux sont : Assurer une continuité d’exploitation 24/7 sans interruption. Respecter des SLA très stricts ( < 30 minutes pour P1 ). Préparer la migration vers une architecture plus évolutive . Objectifs de la mission : Remplacer un Business Analyst et renforcer l’équipe de développement (ratio 3 internes / 2 externes). Contribuer à la conception, au développement et à la mise en œuvre des fonctionnalités prioritaires identifiées dans le « Top 10 » des besoins utilisateurs. Assurer une modélisation précise des processus métier, notamment la gestion des commandes industrielles, de leur prise en charge jusqu’à leur ordonnancement en usine. Responsabilités principales : Comprendre, analyser et modéliser les processus métier liés à la gestion des commandes industrielles. Concevoir, développer et déployer des fonctionnalités sur la stack technologique existante, en mettant l’accent sur la qualité et la performance. Sécuriser les échanges de données sensibles conformément aux standards RGPD et ISO 27001, garantissant ainsi la conformité réglementaire et la sécurité de l’information. Participer au support de production, notamment lors d’astreintes ponctuelles en situation critique (P0/P1). Documenter l’ensemble des décisions techniques prises et rédiger des manuels utilisateur cohérents et précis. Résumé : Il s’agit d’une mission stratégique visant à assurer la continuité opérationnelle d’un système critique tout en préparant sa migration vers une architecture moderne, flexible et évolutive. Le candidat idéal doit faire preuve de compétences techniques solides, d’une capacité à modéliser des processus complexes, et d’une aisance dans la gestion de la sécurité et du support en production.
Mission freelance
Data Quality Engineer Senior
INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality
6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Mission freelance
Cloud Network - Ops Engineer
CAT-AMANIA
Publiée le
Ansible
BGP (Border Gateway Protocol)
Cisco
1 an
100-450 €
Lille, Hauts-de-France
le profil aura pour mission de contribuer à la livraison de fonctionnalités techniques sur nos composants réseaux. Voici quelques exemples de tâches portées par ce poste : Contribuer techniquement aux engagements de l’équipe dans la livraison de fonctionnalités. (Activités de Build pilotées au travers des rituels Scrum) Participer régulièrement aux activités en maintien en condition opérationnelle de nos composants réseaux Automatiser par le développement nos solutions d'infrastructure réseau. Participer au Run sur les modules, scripts, automates developpés par l'équipe Participer aux différents projets d'innovations et d'améliorations du réseau dans l'équipe. Proposer et mettre en œuvre des améliorations et des solutions innovantes (Build & Run). Domaine de responsabilité / Composants techniques sur lequel le prestataire interviendra : AWS & GCP Cloud VPC Management - VPC, Endpoint, NCC, TransitGateway, SharedVPC, PSC, PrivateLink Cloud segmentation - VPC Inspection, Security groups, PrivateLink, VPCEndpoints Cloud Transit - Routeurs Cisco, AWS DirectConnect, GCP partners Interconnect, Cloud routers) IP Management - IPAM Netbox, Infoblox, RFC1918 Private DNS - Route53, CloudDNS, Infoblox
Offre d'emploi
LLMOps Engineer / GenAI Engineer H/F
VIVERIS
Publiée le
45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre du développement de ses activités autour de l'intelligence artificielle, un grand groupe industriel renforce son hub dédié à la stratégie et au déploiement de solutions IA, notamment dans le domaine de l'énergie. La mission s'inscrit dans un contexte de forte croissance des usages autour des LLM et de la GenAI, avec des enjeux d'industrialisation, de passage à l'échelle et d'intégration dans des produits et services. L'environnement de la mission repose sur des architectures cloud AWS, avec une forte culture DevOps (CI/CD, IaC) et l'utilisation de frameworks GenAI tels que Langchain et LangGraph. Vous interviendrez au sein d'une équipe en charge du développement et de la mise en production de solutions basées sur des modèles de langages et des agents intelligents. Responsabilités : - Concevoir et procéder au déploiement et à l'industrialisation des pipelines LLMOps dans un environnement cloud ; - Participer activement à la mise en production de solutions GenAI, en garantissant leur performance, leur robustesse et leur scalabilité ; - Collaborer étroitement avec les équipes data et IA afin de répondre aux besoins métiers et d'optimiser les architectures existantes.
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python
1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
Mission freelance
Deep Learning Engineer
Groupe Aptenia
Publiée le
Computer vision
Deep Learning
MLOps
6 mois
Paris, France
📍 Localisation : Paris (2j/semaine sur site) 📅 Démarrage : ASAP ⏳ Durée : 6 mois minimum 🔍 Nous recherchons un Deep Learning Engineer expérimenté dans un contexte à forte dimension technologique. 🎯 Vos missions principales ✅ Développer, entraîner et tester des modèles de Deep Learning (Computer Vision) ✅ Travailler sur des données d'imagerie aérospatiale ✅ Contribuer à la mise en production des modèles ✅ Participer à l’amélioration de la stack MLOps (CI/CD, industrialisation) ✅ Collaborer au sein d’une squad agile (5–7 personnes)
Offre d'emploi
ML Engineer H/F
OBJECTWARE
Publiée le
Agent IA
CI/CD
Large Language Model (LLM)
40k-65k €
Bordeaux, Nouvelle-Aquitaine
🎯 ML Engineer – Industrialisation & Agents IA Nous accompagnons actuellement un de nos clients dans le cadre du renforcement de ses équipes Data / IA, avec un enjeu fort autour de l’industrialisation des modèles et du développement d’agents basés sur les LLM. Dans ce contexte, nous recherchons un ML Engineer , avec un niveau d’expérience ouvert (à partir de 4 ans jusqu’à expert), pour intervenir sur des sujets à forte valeur ajoutée. Missions Concevoir et développer des agents IA basés sur des LLM Participer à l’ industrialisation des modèles de Machine Learning Mettre en place et optimiser des pipelines MLOps Assurer le déploiement, le monitoring et la performance des modèles en production Collaborer avec les équipes Data, IT et métiers pour intégrer les solutions IA dans les outils existants Contribuer aux bonnes pratiques CI/CD, automatisation et GitOps 🛠️ Environnement technique IA / LLM : LangChain, LangGraph, LLM MLOps : MLflow, Kubeflow DevOps / Industrialisation : CI/CD, GitOps Data / ML : Machine Learning (profil ex Data Scientist apprécié)
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 8vpph62lhn
Offre d'emploi
Data Hub - Data Engineer
Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Mission freelance
AI Engineer (GenAI, RAG & Multi‑Agents) (F/H)
Bluescale
Publiée le
Apache Airflow
Docker
Google Cloud Platform (GCP)
3 mois
400-560 €
Île-de-France, France
Les attendus de la mission: 1. Développement d’Agents IA Concevoir et améliorer des agents IA end‑to‑end (RAG, multi‑agents, MCP). Développer des assistants intégrés (Google Chat, APIs internes). Implémenter du Tool Use pour orchestrer des actions métier (SAP, BigQuery, Firestore). Intégrer des capacités multimodales (PDF, images). 2. MLOps & Industrialisation Déployer sur GCP : Vertex AI, Cloud Run, BigQuery, Firestore. Intégrer les workflows dans Airflow (DAGs de traitement). Maintenir CI/CD (GitHub Actions) et conteneurisation (Docker). Assurer le monitoring et la qualité (MLflow, Evidently). 3. Sécurité & Gouvernance Mettre en place et maintenir un Human‑in‑the‑loop robuste. Protéger les agents contre prompt injection, jailbreaking et fuite de données. Garantir la conformité et la qualité des données injectées dans SAP/BigQuery. 4. Automatisation & Optimisation Optimiser les performances des agents (précision, autonomie, robustesse). Étendre les capacités du système (nouveaux outils, nouvelles sources). Développer des mécanismes de fallback intelligents pour les cas complexes.
Mission freelance
Data Engineer Azure
STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure
Python
6 mois
320-350 €
Niort, Nouvelle-Aquitaine
Bonjour, Je suis à la recherche d’un Data Engineer Azure : Missions principales : Dans un contexte de développement et d’industrialisation de solutions Data et Machine Learning sur le cloud Azure : Ø Concevoir, développer et industrialiser des pipelines Data et ML robustes et performants Ø Transformer des prototypes Data Science en solutions industrielles exploitables Ø Contribuer aux activités projets et RUN dans un environnement agile Ø Garantir la qualité, la maintenabilité et la performance des solutions développées Ø Conception et développement de pipelines batch sous Azure Databricks Ø Utilisation avancée de : PySpark, Delta Lake, MLflow, Databricks Workflows Ø Optimisation des performances : Partitionnement des données, Gestion mémoire et Exploitation des GPU Ø Mise en œuvre de mécanismes de : Reprise sur erreur, Traçabilité, Monitoring Ø Collaboration étroite avec les Data Scientists pour industrialiser les modèles ML
Offre d'emploi
AI Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Databricks
45k-60k €
Paris, France
En tant qu’AI Engineer, vous intervenez sur la conception, le développement et l’industrialisation de solutions d’Intelligence Artificielle, allant du Machine Learning classique aux cas d’usage de GenAI. Vous travaillez au cœur des plateformes Data et ML afin de garantir la robustesse, la performance, la scalabilité et la maintenabilité des modèles et services IA mis en production, au service des équipes métiers et produits. Expérience attendue : 3+ ans en ingénierie IA / ML / Data, avec une forte orientation production. Vous correspondez au/à la AI Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique , de rigueur et de pragmatisme Vous êtes autonome, proactif et doté d’un solide sens des responsabilités Vous savez communiquer clairement avec des interlocuteurs techniques et non techniques, et vulgariser des sujets complexes Vous savez prioriser vos tâches , gérer les contraintes (qualité, délais, coûts) et respecter vos engagements Vous disposez d’un solide bagage en software engineering , vous permettant de développer des solutions IA robustes, lisibles, maintenables et testables , principalement en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes à l’aise avec les outils de versioning (Git) et les workflows collaboratifs associés Vous avez déjà travaillé sur des plateformes Data / ML Cloud (ex. Databricks ou équivalent) Vous comprenez les enjeux de préparation des données , de feature engineering et de qualité des datasets pour les usages ML / AI Vous avez une experience dans l’ industrialisation des modèles ML , incluant entraînement, validation, versioning et déploiement Vous êtes sensibilisé aux pratiques MLOps (gestion du cycle de vie des modèles, reproductibilité, monitoring) Vous avez une appétence pour les cas d’usage GenAI (LLM, RAG, embeddings, agents) et savez concevoir et mettre en œuvre de frameworks d’évaluation pour les systèmes GenAI incluant : évaluation de la qualité des réponses (relevance, faithfulness, completeness), validation des chaînes de retrieval et d’embeddings, comparaison de prompts, modèles ou configurations
Offre d'emploi
Data Scientist / AI Engineer
█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Ingénieur DevOps IA
VISIAN
Publiée le
AI
Amazon SageMaker
Ansible
1 an
Paris, France
Missions principales Mise en œuvre opérationnelle et technique des produits IA : Apporter une expertise technique et participer à la conception des architectures IA Industrialiser et automatiser le déploiement de plateforme agentique dans un environnement on premise ou cloud Participer à la mise en place de services managés en intégrant les contraintes de sécurité, compliance et gouvernance Documenter les offres et services et assurer leur mise en production Démontrer la valeur des offres d'IA générative auprès des entités/clients internes Réaliser des présentations et démos pour promouvoir les offres et services Participer aux daily meetings animés par le Product Owner Contribuer aux réunions de co-construction de la roadmap Prendre en charge les éléments de la backlog formalisée par le Product Owner Assurer le lead technique sur un produit au sein de la squad Participer à l'ensemble des rituels de la squad, de la plateforme et du pôle Participer aux astreintes techniques du pôle Compétences métiers requises Expérience en déploiement et manipulation du workload data Maîtrise des stacks IA sur AWS, GCP et/ou on-premise, avec expérience en déploiement de processus MLOps et LLMOps Maîtrise des fondamentaux de conteneurisation et des pratiques CI/CD Expérience dans le développement de projets AI/ML, d'exploitation et d'optimisation de produits IA Connaissance approfondie des meilleures pratiques en matière de sécurité des données et de conformité Environnement technique Cloud et Infrastructure : AWS (EKS, Sagemaker, Bedrock), GCP (GKE, Vertex AI), stack on premise, Kubernetes, Openshift, Docker Développement et Automatisation : Terraform, Python, SQL, Ansible, Jenkins, GitLab CI, Kestra Data et IA : Artifactory (Jfrog), orchestration de workload IA (Dataiku ou MLflow), bases de données vectorielles (Opensearch, RDS, Elastic Search, PG Vector, MongoDB Atlas) Observabilité : Dynatrace, CloudWatch, Prometheus, Grafana, X-Ray (appréciées) Compétences comportementales Excellent relationnel Agilité Esprit d'équipe Force de proposition Rigueur et sens de l’organisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
491 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois