Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 22 résultats.
Freelance

Mission freelance
DATA SCIENTIST MLOPS

HAYS France
Publiée le
IA Générative
Machine Learning
MLOps

3 ans
100-550 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Freelance

Mission freelance
Data Science/MLOps

ESENCA
Publiée le
Data analysis
IA Générative
Machine Learning

3 mois
Lille, Hauts-de-France
Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Freelance

Mission freelance
Data Scientist / MLOps Engineer

VISIAN
Publiée le
DevOps

2 ans
400-550 €
Île-de-France, France
Le pôle est composé d'une vingtaine de personnes dont une majorité de Deep Learning Scientists. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe elle-même. La mission sera d'une durée minimale de 3 mois. La personne travaillera en binôme avec un MLEng de l'équipe. Disposer d'une habilitation défense est un plus pour la mission. La capacité à venir sur le site parisien 2 jours par semaine est aussi un plus. Mission Assurer la maintenance de la stack d'outils de l'équipe et notamment : Participer à rendre les algorithmes IA compatibles d'architecture GPU Blackwell Mettre à jour les dépendances de la codebase (Python, CUDA) Participer au développement de nos outils de MLOps en général Et aussi : Mettre en place les processus permettant une maintenance pro-active et continue de la codebase Participer à la montée en compétence des data scientists de l'équipe sur leur compétence SW Participer à la mise en place de notre stack environnement classifié Stack technique Python (3.10+), PyTorch et TensorFlow pour nos frameworks de deep learning PostgreSQL (PostGIS) pour la gestion de nos bases de données, Airflow, des dockers orchestrés par Nomad de Hashicorp Environnements DevOps utilisant principalement Ansible, Terraform pour l'automatisation et la suite Prometheus / Grafana pour le monitoring Cloud multi-fournisseurs (AWS & OVH) et environnement de développement classifié on-premise Compétences requises Une formation en Software Engineering, en apprentissage automatique, en vision par ordinateur ou dans un domaine similaire Au moins 5 ans d'expérience en développement back-end en Python et / ou en ML engineering Techniquement : D'une très bonne connaissance de Python D'une expérience en MLOps et d'une connaissance de TensorFlow, PyTorch, CUDA Une connaissance de la manipulation de données géospatiales est un plus En terme de soft skills : Vous êtes pédagogue et aimez coacher vos collègues pour aider les Deep Learning Scientists
Freelance

Mission freelance
AI Data Engineer (Microsoft Fabric & Azure) (h/f)

emagine Consulting SARL
Publiée le

6 mois
550-650 €
75001, Paris, Île-de-France
Vous êtes un ingénieur de données IA expérimenté et possédez une expertise pratique approfondie de Microsoft Fabric et de l'ingénierie de données Azure moderne ? emagine vous offre l'opportunité de participer au développement, à l'optimisation et à la mise à l'échelle de pipelines de données et d'architectures lakehouse qui permettent la mise en œuvre d'initiatives avancées en matière d'analyse et d'IA au sein d'une équipe internationale. Are you an experienced AI Data Engineer with deep hands‑on expertise in Microsoft Fabric and modern Azure data engineering? emagine has an opportunity for you to support the development, optimisation, and scaling of data pipelines and lakehouse architectures that enable advanced analytics and AI initiatives across a global team. Skills & Experience 10+ years’ experience as a Data Engineer, AI Engineer, or similar role. Strong hands‑on experience with Microsoft Fabric (Lakehouse, Data Engineering, Data Factory, Data Pipelines). Deep expertise across Azure Data Services: Azure Data Factory Azure Databricks / Spark Azure Synapse Analytics (SQL Pools) Azure Storage / ADLS Gen2 Azure Functions Azure Machine Learning Proficiency in Python and SQL for data processing and transformation. Strong experience building lakehouse architectures and Delta Lake pipelines. Knowledge of modern DevOps/MLOps practices including testing, version control, and automated deployment. Familiarity with governance solutions such as Azure Purview or Fabric governance. Key Tasks & Deliverables You will play a pivotal role in designing and running data engineering capabilities that enable analytics, AI, and ML use cases. Responsibilities include: Data Engineering & Architecture Design, build, and maintain scalable data pipelines on Microsoft Fabric (Data Factory, Dataflows, Lakehouse, Warehouse, OneLake). Develop ingestion, transformation, and orchestration workflows using Azure Data Factory, Azure Databricks, Azure Synapse, and Azure Functions. Implement and optimize Delta Lake architectures for both structured and unstructured datasets. Build reusable, production-grade data products supporting analytics, ML, and AI workloads. AI & Advanced Analytics Integration Collaborate with Data Scientists and ML Engineers to operationalize models via Azure Machine Learning, Fabric Data Science, or Databricks. Prepare feature‑engineered datasets for machine learning workloads. Implement MLOps workflows including automated deployments, model monitoring, and pipeline observability. Governance, Quality & Security Implement data quality, observability, monitoring, and lineage frameworks using Fabric and Azure Purview. Ensure compliance with governance, privacy, and security standards. Manage CI/CD pipelines and version‑controlled data code via Azure DevOps or GitHub. Collaboration & Stakeholder Engagement Work closely with business analysts, product owners, and domain experts to define data requirements and deliver high‑value solutions. Maintain documentation of data models, sources, pipelines, and best practices. Provide technical leadership and mentoring across the engineering team. Why join this project? You’ll be joining a collaborative, enabling environment that values innovation while giving you autonomy to architect modern data solutions at scale. Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
DATA SCIENTIST INFORMATION RETRIEVAL

BEEZEN
Publiée le
Data science

1 an
400-500 €
Île-de-France, France
● Compétences techniques clés : ● Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. ● Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. ● Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). ● Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). ● Expérience de plus de 7 ans en avec une spécialisation marquée sur les problématiques de Information Retrieval (IR) ● En intervenant à toutes les étapes des projets, vous pourrez : ● Stratégie Search : Collaborer avec les Product Managers pour défi nir la roadmap de pertinence (recherche textuelle, sémantique, hybride). ● Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. ● Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. ● Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). ● Expertise Elasticsearch : Optimiser les confi gurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. ● Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.
Freelance

Mission freelance
Tech Lead CSIRT

Groupe Aptenia
Publiée le
Analyse forensic

1 an
500-600 €
Auvergne-Rhône-Alpes, France
En tant que Tech Lead (CERT/CSIRT) , vous occupez un rôle central dans la protection de l’écosystème de l’organisation . Vous intervenez comme référent technique et opérationnel , avec une responsabilité directe sur la gestion des incidents critiques et l’évolution du dispositif de réponse à incident. Leadership technique – Blue Team Référent technique sur les briques clés de la sécurité opérationnelle : SIEM, Active Directory / Entra ID, EPP/EDR, forensic et reverse engineering Encadrement technique et accompagnement des analystes, avec une montée en compétences sur plusieurs zones géographiques Animation de sessions techniques, diffusion des bonnes pratiques et structuration du savoir-faire Blue Team Gestion des incidents et des crises Pilotage des plans de réponse aux incidents majeurs , de la détection à la remédiation Intervention experte en forensic numérique et reverse engineering Coordination des actions de remédiation et suivi des plans correctifs Réalisation d’analyses approfondies des causes racines ( Root Cause Analysis ) et restitution auprès des parties prenantes Optimisation des capacités de détection Évaluation continue de l’efficacité des stratégies de détection SOC Amélioration et optimisation des plateformes et outils de sécurité ( SIEM, EDR, SOAR, IA appliquée à la cybersécurité ) Contribution à l’industrialisation et à la fiabilisation des processus de détection et de réponse Contribution stratégique & veille Participation à la définition et à l’évolution des politiques de sécurité , en lien avec les équipes d’architecture Veille technologique proactive et échanges réguliers avec la Red Team pour anticiper les menaces émergentes Contribution au rayonnement et à l’enrichissement des connaissances du groupe via des communautés externes et partenariats Environnement technique & outils SIEM : Splunk (maîtrise du SPL ), Sentinel, Machine Learning EPP / EDR : Microsoft Defender, Palo Alto Cortex XDR, Trend Micro Deep Security Forensic / DFIR : DFIR-ORC, Volatility, outils open source (contribution active aux communautés) Réseaux & sécurité : Palo Alto GlobalProtect, IDS/IPS, VPN, analyse de logs (Wireshark) Systèmes & scripting : Windows, Linux, PowerShell, Python, Bash Compétences comportementales Forte initiative et capacité de prise de décision Esprit d’ équipe et leadership collaboratif Autonomie et sens des responsabilités Culture de l’ apprentissage continu et de l’amélioration permanente
22 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous