Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 637 résultats.
CDD
CDI
Freelance

Offre d'emploi
Data Analyst en Full Remote (Lyon)

R&S TELECOM
Publiée le
IA Générative
Snowflake
SQL

6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Au sein de la DSI, le projet concerné est une plateforme digitale transversale inscrite dans les objectifs digitaux 2026 du client. Elle s’intègre dans la chaîne de valeur Commerciale et contribue à la stratégie globale de transformation digitale. Le projet permet une capacité de type “Talk to your data” : une interface en langage naturel permettant aux collaborateurs de poser des questions et d’obtenir des réponses sans expertise technique. Aujourd’hui, 35 utilisateurs exploitent la plateforme, avec un objectif de 700+ utilisateurs d’ici fin 2026. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l’agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. L’environnement technique repose sur Snowflake, incluant les fonctionnalités AI Cortex. Tâches à réaliser : Compréhension Fonctionnelle & Cohérence Produit Assurer l’alignement entre les besoins métier et les capacités de la solution. Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données. Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités. Contribution aux User Stories & au Backlog Participer à la rédaction des user stories (définir ce qui doit être fait). Définir les fonctionnalités du produit et contribuer à la planification des releases. Prioriser les fonctionnalités et ajuster le périmètre à chaque itération. Garantir la préparation des user stories pour le développement. Accepter ou rejeter les résultats livrés selon les critères définis. Assurance Qualité Contribuer à la création et à l’exécution des cas de test. Valider les modèles de données et leur adéquation aux besoins analytiques. Participer aux contrôles de qualité des données et aux tests fonctionnels. Compétences recherchées : Obligatoires : Maîtrise avancée de SQL et expérience confirmée sur Snowflake. Solides compétences en modélisation de données. Expérience en data quality, testing et validation. Connaissance des concepts IA / GenAI appréciée. Expérience précédente sur des projets orientés données. Excellentes capacités de communication et de coordination. Capacité à traduire les besoins métier en exigences techniques. Optionnelles : Expérience dans l’industrie pharmaceutique (domaine commercial idéalement). Connaissance de Snowflake AI Cortex. Excellentes compétences Excel. Expérience sur des plateformes data à grande échelle ou des couches sémantiques Expérience nécessaire : 3 années minimum d’expérience sur la fonction Méthodologie : Agile Langues : Anglais (Courant - Niveau C1) Localisation : Full Remote mais rattachée aux locaux O situés à Lyon Possibilité d’interventions hors site Client : OUI (100% - Réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Data Scientist IA

R&S TELECOM
Publiée le
CI/CD
Kubernetes

1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Freelance

Mission freelance
Product Manager IA

HAYS France
Publiée le
Agent IA
BigQuery
Copilot

3 ans
250-610 €
Lille, Hauts-de-France
Responsabilités principales🔹 Définition de la stratégie IA Définir et formaliser la gouvernance IA du client en collaboration avec les équipes métiers, Digital & Data Construire la trajectoire IA alignée avec les enjeux business 🔹 Pilotage des projets IA Accompagner les équipes métiers dans l’identification des cas d’usage Prioriser et piloter le backlog des initiatives IA Définir les ressources nécessaires (internes / externes) Suivre le delivery et mesurer la création de valeur (ROI, impact opérationnel) 🔹 Travail en écosystème groupe Collaborer étroitement avec les experts IA du client Identifier et favoriser le re-use de solutions existantes au sein du groupe 🔹 Animation et innovation Faire le lien entre les équipes techniques et le terrain Suivre la performance des solutions IA déployées Contribuer à la diffusion de la culture IA et Data
CDI
Freelance

Offre d'emploi
Data Engineer, GCP (H-F)

K-Lagan
Publiée le
Azure
Big Data
Databricks

1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Freelance
CDI
CDD

Offre d'emploi
Data Engineer TJM MAX 580 Python + Azure + Microsoft Fabric/Cognite

Craftman data
Publiée le
Azure
Microsoft Fabric
Python

6 mois
40k-55k €
400-580 €
Paris, France
Contexte de la mission Grand groupe international du secteur industriel et énergétique, présent à l’échelle mondiale, engagé dans la transformation de ses activités via une entité digitale interne structurée en équipes pluridisciplinaires. Cette organisation conçoit, développe et déploie des solutions numériques à grande échelle afin de soutenir les opérations métiers dans un environnement international. Objectifs et livrables Dans le cadre d’un projet stratégique, nous recherchons un(e) Data Engineer disposant de solides compétences en Python, Azure, Microsoft Fabric et idéalement Cognite. Le/la consultant(e) sera responsable de la conception, du développement et de la mise en production d’une architecture de données robuste et évolutive. Missions principales : Recueillir et analyser les besoins métiers et utilisateurs Concevoir l’architecture de données adaptée aux enjeux du projet Développer les pipelines de données Industrialiser et mettre en production les flux de données Assurer la maintenance, l’évolution et l’optimisation de l’architecture existante Compétences requises : Technologies : Python (expert) Azure Cloud (confirmé) Microsoft Fabric (confirmé, forte maîtrise appréciée) Cognite (confirmé, forte maîtrise appréciée) Langues : Anglais courant (écrit et oral) Profil recherché : Solide expérience en Data Engineering et architecture cloud Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques Autonomie dans la conception, la livraison et l’amélioration continue Maîtrise des environnements data modernes et des bonnes pratiques de mise en production
CDI

Offre d'emploi
Senior Data Analyst & Data Scientist Snowflake H/F

JEMS
Publiée le

40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Senior Data Analyst & Data Scientist spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : 68gfaidg6x
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
CDI

Offre d'emploi
Business Analyst - Full remote Lyon

Proxiad
Publiée le
Agent IA
Snowflake
SQL

Lyon, Auvergne-Rhône-Alpes
• Profil recherché : Business Analyst • Nombre de prestations : 2 • Contexte de la mission : Le projet s’inscrit dans la transformation digitale de la chaîne de valeur Commerciale. Il vise à déployer une fonctionnalité “Talk to your data”, permettant aux collaborateurs d’interroger les données en langage naturel grâce à un AI Agent (LLM) capable de générer automatiquement des requêtes SQL fiables. L’environnement technique repose sur Snowflake, incluant les fonctionnalités AI Cortex, et s’appuie sur une organisation Agile (Scrum). Le produit est actuellement utilisé par 35 utilisateurs, avec un objectif d’extension à 700+ utilisateurs d’ici fin 2026. La mission se concentre sur le backend et la couche sémantique, garantissant la qualité, la cohérence et la pertinence des requêtes générées par l’IA.
Freelance
CDI

Offre d'emploi
Architecte Big data sur le Havre

EterniTech
Publiée le
Big Data
Data Lake
Data science

3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
CDI

Offre d'emploi
Lead Architecte Data Senior (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
SQL

55k-70k €
Niort, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Product Owner IA

DATAMED RESEARCH
Publiée le
Agent IA
Natural Language Processing (NLP)
OCR (Optical Character Recognition)

24 mois
Paris, France
Contexte Intervention au sein d’une équipe Data / IA en forte croissance, avec des enjeux autour de la valorisation des données, de l’industrialisation des cas d’usage IA et de l’alignement avec les besoins métiers. Missions principales Recueillir, analyser et prioriser les besoins métiers liés aux cas d’usage IA Construire et piloter la roadmap produit IA Rédiger les user stories et gérer le backlog produit Collaborer étroitement avec les équipes Data Scientists, Data Engineers et métiers Suivre le développement des modèles IA (ML, NLP, etc.) et leur mise en production Garantir la valeur business des solutions développées Mettre en place des KPIs de suivi de performance des modèles Assurer la communication avec les parties prenantes (métiers, IT, direction)
CDI
Freelance
CDD

Offre d'emploi
Développeur Gen IA / Rust

Projets et Performance
Publiée le
Agent IA
Azure DevOps
Copilot

4 mois
40k-45k €
400-550 €
Saint-Denis, Île-de-France
Dans le cadre d’un renforcement d’équipe, nous recherchons un Développeur Senior spécialisé en génération de code via IA (Gen AI) pour intervenir sur des projets innovants autour de l’automatisation du développement logiciel. Vos missions : Exploiter des outils de génération de code basés sur l’IA (notamment GitHub Copilot) et maîtriser les techniques de prompting Mettre en place et piloter des agents spécialisés dédiés à la génération de code Participer à la conception et à la génération de sites web en mode Gen AI Concevoir des architectures logicielles selon différentes approches : modulaire, orientée objet et fonctionnelle Développer et consommer des API REST / Web Services Assurer la qualité du code via des pratiques de tests automatisés Contribuer à l’intégration continue et au suivi des développements Compétences techniques : Très bonne maîtrise des environnements Gen AI appliqués au développement logiciel Expérience en méthodologies Agile Maîtrise de : Git, Azure DevOps, JIRA Intégration continue (CI/CD) Bonne connaissance : des outils de qualité de code (SonarCloud, Checkmarx) des standards de sécurité OWASP Connaissances en Rust appréciées Expérience en tests automatisés est un plus
Freelance

Mission freelance
Développeur·se Full Stack React / Laravel

CAT-AMANIA
Publiée le
IA
Laravel
Next.js

1 an
400-450 €
Strasbourg, Grand Est
Au sein d’un grand média européen , tu rejoins une équipe en charge du développement et de l’évolution d’applications web stratégiques utilisées dans un contexte international et multi-plateformes. Tu interviens sur l’ensemble de la chaîne de développement, aussi bien côté frontend que backend , dans un environnement structuré, orienté qualité et fortement industrialisé. Tes missions principales : Concevoir, développer et maintenir des applications web full stack en environnement de production Participer au développement des interfaces utilisateurs en ReactJS / Next.js Développer les services backend en Laravel Concevoir et maintenir des composants réutilisables intégrés au design system Intervenir sur les problématiques d’intégration, de performance et de qualité logicielle Participer aux déploiements et à l’amélioration continue des pipelines CI/CD Réaliser les tests unitaires , tests end-to-end et garantir la qualité du code Contribuer à la documentation technique et au partage des bonnes pratiques Participer à un environnement de développement intégrant des outils IA d’assistance au développement
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Freelance
CDI

Offre d'emploi
Data Hub - Data Engineer

Digistrat consulting
Publiée le
IntelliJ IDEA
Python
SQL

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Participation à différents projets de migration vers la nouvelle plateforme 💡Description détaillée Le contexte de la mission : Participation à différents projets de migration vers la nouvelle plateforme. Participation aux nouveaux projets BI. Contribution aux développements de workflows en python au sein de l'équipe DataHub Core Platform. 💡Responsabilités principales : · La mission consiste à : Participation au projet DQF (Data Quality Framework) Développement des modules python communs qui seront utiles à tous les projets Participation au projet Data Lineage
2637 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous