Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 714 résultats.
Mission freelance
Senior AI Engineer H/F (Paris ou Bordeaux)
Pickmeup
Publiée le
Agent IA
Databricks
LangChain
2 ans
500-700 €
Paris, France
Contexte et Mission Le secteur du e-commerce entre dans une nouvelle phase : l’ Agentic Commerce , où des agents pilotés par l’IA effectuent de manière autonome des recherches et des achats pour les utilisateurs. Dans ce cadre, vous rejoignez une équipe Data de plus de 60 personnes pour prototyper et intégrer ces systèmes d'agents au sein d'un écosystème utilisé par les plus grands retailers mondiaux. Responsabilités principales Conception & Architecture : Développer et optimiser des agents IA via des frameworks comme LangChain, LangGraph ou LangFlow. Ingénierie LLM : Exploiter les modèles de langage de pointe et les techniques de type RAG (Retrieval-Augmented Generation). Cycle de vie produit : Piloter les projets de la phase de design initial jusqu'à la mise en production et aux itérations successives. Industrialisation : Mettre en place des outils réutilisables pour assurer la scalabilité, le monitoring et les tests des solutions déployées. Innovation & Veille : Explorer les nouveaux paradigmes de l'IA et évaluer les technologies émergentes pour maintenir l'avance technologique de la plateforme.
Offre d'emploi
Expert Rubrik
SWING-ONE
Publiée le
Infrastructure
Python
Sauvegarde
1 an
Île-de-France, France
Au sein d’une entité IT (type cloud provider), vous intervenez dans une division infrastructure en charge des services basse couche (datacenters, réseau, stockage, virtualisation, sauvegarde). L’environnement est critique, multi-sites, multi-clients (interne + externe) , avec des enjeux forts de sécurité, conformité et continuité de service . Missions principales 1. Architecture & évolution des plateformes Concevoir et faire évoluer les architectures de sauvegarde (Rubrik, S3, air gap) Participer aux choix techniques et aux transformations (nouveaux clusters, refonte architecture) Gérer les migrations (anciens → nouveaux clusters) 2. Fiabilisation & performance Stabiliser les plateformes existantes Gérer la capacité (stockage, clusters, volumétrie) Optimiser les performances (RSC/RSCP, flux réseau, contraintes firewall) 3. Sécurité & conformité Renforcer la sécurité des sauvegardes : immutabilité, air gap, isolation Mettre en place des mécanismes avancés (whitelisting IP, double validation, intégration ADFS) Contribuer à des architectures conformes aux exigences ANSSI / SecNumCloud 4. Automatisation & industrialisation Maintenir et faire évoluer les mécanismes d’automatisation (provisioning, SLA, sauvegardes) Adapter les scripts et outils (GraphQL) Standardiser les pratiques (rétention, archivage, politiques de sauvegarde) 5. Accompagnement & expertise Support de niveau expert aux équipes internes Interaction avec les équipes sécurité, réseau et production Contribution aux phases de qualification (QA) et déploiement
Mission freelance
Ingénieur de production /DevOps - Global Market - Trade
VISIAN
Publiée le
Administration linux
Bash
Powershell
1 an
300-470 €
Île-de-France, France
Contexte de la mission Dans un environnement technique exigeant, vous intervenez sur des plateformes critiques afin d’en assurer la fiabilité, la performance et l’amélioration continue, en lien étroit avec les équipes de développement et d’infrastructure. Axes de la mission Exploitation & Résilience Assurer la disponibilité, la stabilité et la performance des applications en production Gérer les incidents, contribuer aux analyses de causes et piloter les actions correctives Améliorer les dispositifs de supervision, de monitoring et d’alerting Intervenir dans le cadre des astreintes et garantir la continuité de service Support aux Projets & Environnements Administrer des environnements Linux/Unix et Windows dans des contextes distribués Accompagner les équipes projets dans les phases de déploiement et de mise en production Participer à la conception et à l’optimisation d’architectures applicatives (on-premise et cloud) Intervenir sur des composants middleware, APIs et flux applicatifs Automatisation & Industrialisation Développer des scripts et outils d’automatisation (Python, Bash, PowerShell) Contribuer à la mise en place et à l’évolution des pipelines CI/CD Participer à l’industrialisation des processus et aux pratiques DevOps / SRE Mettre en œuvre des solutions d’observabilité et de supervision Activités Transverses Réaliser les mises en production, y compris en heures non ouvrées Maintenir la documentation technique et les procédures d’exploitation Appliquer les processus (gestion des incidents, changements, communication) Être force de proposition dans l’amélioration continue
Offre d'emploi
Data Scientist | Machine Learning
█ █ █ █ █ █ █
Publiée le
Data management
Deep Learning
Git
Réau, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Mission freelance
Site Reliability Engineer - SRE
KUBE Partners S.L. / Pixie Services
Publiée le
Bash
Google Cloud Platform (GCP)
Kubernetes
6 mois
430 €
Hauts-de-France, France
Votre rôle est clé : apporter une expertise technique pointue, soutenir les équipes Produit et garantir l'excellence opérationnelle de la plateforme. Nous recherchons un profil axé sur l'Ingénierie de la Fiabilité et l'Automatisation pour scaler nos services. Vos Responsabilités Clés Ingénierie de la Fiabilité (SRE) : Piloter l'amélioration continue de la stabilité, performance et résilience de la plateforme. Accompagner les équipes Produit dans la définition et le suivi des SLOs/SLIs (Service Level Objectives/Indicators). Gérer et analyser les incidents de production (incident response et post-mortems sans reproche). Automatisation & Réduction du Toil : Identifier, développer et déployer des outils d'automatisation (scripts, IaC) pour réduire le "Toil" des équipes de niveau 1 et 2, augmentant ainsi l'efficacité opérationnelle. Renforcer les pratiques d'Observabilité (métriques, logs, tracing) pour un diagnostic proactif. Expertise et Conseil : Apporter votre savoir-faire pour garantir la continuité de service et assister quotidiennement les équipes dans l'adoption des meilleures pratiques SRE (Infrastructure, Sécurité, Gestion des changements). Compétences Recherchées Solide expérience en tant que SRE ou DevOps/Software Engineer avec une forte culture fiabilité. Maîtrise de l'automatisation (Python/Go, Bash) et de l'Infrastructure as Code (Terraform). Connaissance approfondie de l'écosystème Kubernetes et Cloud.
Mission freelance
Lead Data Architecte (Convergence & MDM)
Pickmeup
Publiée le
.NET
Master Data Management (MDM)
PostgreSQL
3 mois
800-950 €
Paris, France
Le groupe est un acteur majeur de l'AdTech qui a récemment finalisé l'acquisition de deux entités stratégiques en 2025. L'enjeu actuel est de piloter la convergence technique et fonctionnelle de trois écosystèmes distincts vers une plateforme unique et cohérente. Le défi ne réside pas seulement dans la migration technique, mais dans l'unification de périmètres fonctionnels fragmentés pour couvrir l'intégralité du cycle de vie de l'investissement média Missions principales Sous la responsabilité du CTO, vous serez l'architecte et le garant de la nouvelle structure de données unifiée du groupe. Vos missions se décomposent en deux phases : 1. Conception de l'Architecture Cible (Vision Globale) Modélisation Unifiée : Concevoir un modèle de données cible couvrant l'ensemble du cycle média : budget, planning, achat, activation, facturation et audit. Stratégie d'Identité & Taxonomie : Définir une stratégie d'ID partagée et des taxonomies standardisées pour réconcilier trois systèmes aux structures et granularités hétérogènes. Modèle de Configurabilité : Concevoir un système permettant une haute personnalisation par client (hiérarchies spécifiques, règles métiers, champs optionnels) tout en préservant un cœur de données stable et robuste. Multi-tenant & Connectivité : Évaluer et choisir les meilleurs patterns d'isolation des données (tenancy) et définir les modèles d'échange avec les écosystèmes externes (DSPs, ERP, plateformes d'activation). 2. Mise en œuvre Opérationnelle (Focus Phase 1) Implémentation Hands-on : Contrairement à un rôle de pur conseil, vous participerez activement au développement de la première brique logicielle. Focus Media Planning : Piloter l'implémentation prioritaire du module "Planning" et des entités MDM associées dans un délai de 2 mois. Convergence MDM : Orchestrer la transition entre le Master Data Management (MDM) actuel de la maison mère (Snowflake/Python) et les systèmes acquis (SQL Server / .NET).
Mission freelance
Développeur Senior Python sector Assurance Paris/su
WorldWide People
Publiée le
Python
6 mois
400-450 €
Paris, France
Développeur Senior Python sector Assurance Paris Aujourd’hui, plusieurs développeurs Python seniors disposant d’une dizaine d’années d’expérience interviennent déjà sur ce projet. Nous recherchons donc un profil encore plus expérimenté, capable d’apporter une vision globale, de challenger l’existant et de proposer une véritable expertise technique. Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Offre d'emploi
Data Engineer H/F
OBJECTWARE
Publiée le
Apache Airflow
Microsoft Power BI
Python
1 an
Tours, Centre-Val de Loire
Nous recherchons un Ingénieur Data H/F pour une mission à Tours. Missions : Développer et maintenir des pipelines de données avec Airflow Concevoir et optimiser des traitements de données en Python Collecter, nettoyer et transformer des données issues de sources variées Alimenter des entrepôts de données (Data Warehouse / Data Lake) Assurer la qualité, la fiabilité et la traçabilité des données Collaborer avec les équipes métiers pour la mise à disposition de dashboards sous Power BI Participer à l’optimisation des performances et à l’automatisation des flux
Offre d'emploi
Data Analyst
ONSPARK
Publiée le
Microsoft Power BI
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Analyst pour accompagner nos clients grands comptes. Responsabilités Extraire, nettoyer et analyser des données issues de sources variées Produire des rapports et tableaux de bord à destination des équipes métier Identifier des tendances et formuler des recommandations Collaborer avec les Data Engineers pour l'accès aux données Contribuer à l'amélioration de la qualité des données
Mission freelance
Lead DevOps Kafka H/F
LOMEGARD
Publiée le
Ansible
Apache Kafka
Kubernetes
1 an
550-630 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe en charge de plusieurs offres autour de Kafka, nous recherchons un profil DevOps Senior pour intervenir sur des environnements critiques, exploités à la fois sur des infrastructures On-Premise et sur cloud public. L’intervention couvre plusieurs offres Kafka avec des enjeux différents : MCO, administration avancée, automatisation, support expert et accompagnement de l’évolution des plateformes. Volet 1 — Plateformes Kafka On-Premise Assurer l’administration avancée des clusters Kafka Prendre en charge les activités de build et de run Apporter un support de niveau expert sur les incidents et problématiques complexes Contribuer à l’automatisation des tâches d’exploitation via Ansible et Bash Volet 2 — Offre Kafka PaaS en phase de transition Participer au maintien en conditions opérationnelles d’une offre historique hébergée sur IBM Cloud Contribuer à certains développements autour de composants Java et de microservices liés à Kafka Accompagner la trajectoire de fin de vie progressive de la plateforme Garantir la stabilité du service durant cette période de transition Volet 3 — Offre Kafka As Code Intervenir sur une offre stratégique en fort développement Automatiser le provisioning et l’exploitation des environnements Kafka Développer et maintenir des outils internes et des pipelines techniques Contribuer aux chaînes CI/CD, aux pratiques GitOps et à l’industrialisation des déploiements Participer à des développements en Python, Airflow et Terraform Environnements techniques complémentaires Intervention possible sur des socles Docker, Kubernetes et OpenShift
Offre d'emploi
Data scientist - (H/F)
CHARLI GROUP
Publiée le
AWS Cloud
Pandas
Python
2 ans
55k-62k €
400-550 €
Courbevoie, Île-de-France
Le Projet Rejoignez une équipe à la pointe de l'innovation pour concevoir, optimiser et industrialiser nos solutions d’Intelligence Artificielle Générative. Au cœur de nos enjeux, vous piloterez l'évolution de nos architectures RAG et de nos systèmes de recommandation pour transformer l'expérience utilisateur. Vous évoluez dans un environnement stimulant où l’expérimentation rencontre les exigences de la mise en production à grande échelle. Vos Missions : En tant qu'Ingénieur IA, votre quotidien s'articule autour de quatre piliers majeurs : 1. Architecture & Développement RAG Conception et optimisation de pipelines hybrides (BM25 + Recherche Vectorielle + Reranking). Expérimentations avancées sur les stratégies HyDE (Baseline, Sélectif, Hybride). Intégration et fine-tuning de LLM via AWS Bedrock (Claude Sonnet / Haiku). 2. Performance & Reranking Déploiement et tests de modèles de reranking (type Qwen) pour affiner la pertinence. Arbitrage constant sur le triptyque : Qualité / Latence / Coût . 3. Data Engineering & Ingestion Gestion du cycle de vie de la donnée : Chunking, génération d’embeddings (Titan) et indexation. Connexion et exploitation des sources de données ( Snowflake, S3 ). 4. Évaluation & Industrialisation Mise en place de frameworks d'évaluation ( RAGAS, DeepEval ) et suivi des métriques clés (nDCG@K, Recall, MRR). Passage à l'échelle des pipelines : robustesse, monitoring et gestion des "edge cases". Votre Stack Technique : Cloud / IA : AWS (Bedrock, Lambda, SageMaker, S3). LLM : Claude (Anthropic). Vector DB & Search : OpenSearch, FAISS. Data : Snowflake, Pandas, Python. Évaluation : RAGAS, DeepEval. Prêt(e) à relever le défi GenAI avec nous ? Postulez dès maintenant !
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Data Scientist et IA H/F
Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle
50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Offre d'emploi
Développeur Web (H/F)
Lùkla
Publiée le
API REST
Javascript
Node.js
4 ans
35k-45k €
300-350 €
Strasbourg, Grand Est
Contexte de la mission: Notre client, un acteur reconnu du secteur culturel et audiovisuel, renforce ses équipes digitales pour développer et faire évoluer ses plateformes web (site grand public, outils internes, services de diffusion et production de contenus). Vous intervenez au sein de la direction numérique, dans une équipe pluridisciplinaire (développeurs, UX, designers, PO, experts vidéo), avec un haut niveau d’exigence sur la qualité du code , la performance , l’ accessibilité et l’ expérience utilisateur . La mission s’inscrit dans un contexte d’innovation continue, d’optimisation des parcours utilisateurs et de modernisation des plateformes digitales. Objectifs de la mission: Concevoir, développer et maintenir des applications web à forte visibilité. Participer à l’évolution des plateformes digitales (site web, outils internes, services vidéo). Contribuer à l’architecture logicielle et aux bonnes pratiques de développement. Collaborer avec les équipes UX/UI pour garantir une expérience fluide et accessible. Intégrer des API internes et externes, optimiser les performances et la sécurité. Participer aux cérémonies Agile et aux décisions techniques. Assurer une veille technologique régulière.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
714 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois