Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 433 résultats.
Freelance

Mission freelance
Consultant Senior Product Strategy IA / GenAI (H/F)

LeHibou
Publiée le
IA Générative
Large Language Model (LLM)
Product management

6 mois
580-620 €
Paris, France
Consultant Senior Product Strategy IA / GenAI (H/F)Contexte Dans le cadre d’un programme stratégique autour de l’intelligence artificielle, un grand groupe international recherche un consultant senior pour structurer et piloter le développement de produits IA à forte valeur business, dans un environnement complexe et transverse. Missions Définir et porter une stratégie produit IA / GenAI alignée avec les enjeux business et technologiques Identifier, qualifier et prioriser des cas d’usage IA à fort impact (ROI, performance, efficacité opérationnelle) Construire et piloter une roadmap produit IA à l’échelle d’un ou plusieurs périmètres Mettre en place une gouvernance produit IA (KPIs, comités, suivi de la valeur, gestion des risques) Piloter des POC, MVP et phases d’industrialisation de solutions IA (LLM, RAG, NLP, etc.) Assurer la coordination transverse entre équipes Business, Produit, Data, IT et Data Science Accompagner l’adoption des solutions IA (change management, acculturation, formation) Garantir l’alignement avec les enjeux de conformité, sécurité et éthique de l’IA
Freelance
CDI

Offre d'emploi
Data scientist IA générative

CAT-AMANIA
Publiée le
AWS Cloud
IA
Python

1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Freelance
CDI

Offre d'emploi
Data Analyst - Data Scientist

VISIAN
Publiée le
IA
Machine Learning
Natural Language Processing (NLP)

1 an
40k-45k €
400-670 €
Île-de-France, France
🎯 Mission principale Au sein d’une organisation spécialisée dans la data et les solutions de paiement, vous contribuez à la mise en place de projets décisionnels et Big Data en collaboration avec les équipes métiers et IT. 🧩 Responsabilités principales Contribuer à des projets décisionnels et Big Data. Participer à l’animation d’ateliers et de groupes de travail avec les utilisateurs et équipes techniques. Recueillir et analyser les besoins métiers. Concevoir et développer des reportings décisionnels : définition d’indicateurs statistiques, qualité et financiers Réaliser des analyses exploratoires de données. Rédiger la documentation projet : spécifications fonctionnelles et techniques cahiers de tests et de recette Participer aux phases de validation et de recette. Former et accompagner les utilisateurs finaux.
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Pickmeup
Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Freelance

Mission freelance
Analyste Support BI & Cloud Solutions (N2)

Nicholson SAS
Publiée le
Azure Data Factory
Databricks
Gouvernance, gestion des risques et conformité (GRC)

10 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Secteur : Industrie / Excellence Opérationnelle Localisation : Clermont-Ferrand (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Visibilité : Jusqu’au 15/02/2027 Le Challenge Au cœur d'un environnement Cloud moderne, votre mission consiste à garantir la fiabilité, la performance et la disponibilité critique des services BI. Véritable pivot entre la technique et les besoins métiers, vous assurez un support de niveau 2 sur des solutions de reporting et de traitement de données à forte valeur ajoutée. Vos Responsabilités Maintien en Condition Opérationnelle : Analyse et résolution d'incidents complexes (logs, erreurs de traitement, gestion des permissions). Interface Technico-Fonctionnelle : Traduire des problématiques techniques complexes en impacts métiers clairs pour les parties prenantes. Transition & Qualité : Participer aux phases de mise en exploitation (SDM, SLA) et assurer le suivi rigoureux des indicateurs de performance. Amélioration Continue : Identifier proactivement les points de fragilité, remonter les alertes et proposer des optimisations sur l'existant (IA, automatisation). Astreintes : Participation ponctuelle au dispositif d'astreinte (environ 1 semaine par mois). Stack Technique & Expertise Data Core : Maîtrise avancée du SQL et de Python orienté Data. Ecosystème Azure : Azure Data Factory, Azure Databricks et principes de gouvernance Cloud. Restitution : Expertise fonctionnelle sur Power BI (incluant les concepts de sécurité RLS). Data Science : Notions de base en Machine Learning pour accompagner les évolutions analytiques. Langue : Anglais courant obligatoire (contexte international). Profil Recherché Vous justifiez d'une expérience de 4 ans minimum sur un rôle similaire, mêlant rigueur technique et sens du service. Esprit d’Analyse : Capacité à synthétiser des informations complexes et à prioriser les urgences. Agilité Relationnelle : Vous interagissez avec aisance avec des profils variés (DevOps, Data Engineers, Métiers, Support L3). Curiosité : Un intérêt marqué pour les nouvelles technologies et l'IA pour faire évoluer votre périmètre. Conditions de la prestation TJM : 400 € Soft Skills clés : Autonomie, proactivité et excellente communication écrite/orale.
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance

Mission freelance
[LFR] Architecture IA/Sécurité, Sénior à Paris - 1435

ISUPPLIER
Publiée le

10 mois
400-650 €
Paris, France
Missions : 1/ Accompagner la Sécurité dans les projets IA Amundi En tant qu’Architecture Sécurité IA, vous définissez et mettez en œuvre les mesures de sécurité adaptées aux systèmes intégrant de l’intelligence artificielle, analysez les risques liés aux modèles et aux données, encadrez les choix technologiques, et veillez à la conformité avec les standards de sécurité et les réglementations en vigueur. Sur cette partie, en étroite collaboration avec l’équipe Innovation Labs en charge du déploiement des solutions IA. Réalisations attendues : - S’assurer que les projets IA s’intègrent bien dans la méthodologie Amundi d’accompagnement de la sécurité dans les projets. - Mener des analyses de risques sur les scénarios d’attaque IA, pour en dériver une posture cyber. Apporter la vision de la conformité à l’IA Act. - Participer aux conceptions et aux revues d’architecture pour apporter la garantie que les IA déployées le sont avec les standards de sécurité et de conformité requises. Vérifier le besoin d’ajouter des scénarii de détection par le SOC. - Définir et déployer les solutions adaptées de protection des IA (AI Security Posture Management, etc.). - Communiquer en interne et en externe sur la sécurité de l’IA et les risques associés. - Maintenir à jour l’état de l’art des techniques d’IA et les risques associés. - Former les équipes internes sur les nouvelles technologies IA et fournir un support technique continu. Plus globalement, contribuer à la diffusion d'une culture de l'IA au sein d’Amundi. - Participer aux ateliers IA au niveau du groupe en tant qu’expert et contribuer à la création des futurs standards et la réalisation d’études sur de nouvelles solutions. 2/ Mise en place de solutions d’IA au profit de l’équipe Cyber Dans un contexte d'automatisation des processus, en général et plus particulièrement la direction de la sécurité souhaite accélérer l'intégration de l'intelligence artificielle pour optimiser ses activités. Le rôle sera de tirer parti des technologies IA et Data Science pour faciliter le traitement d'activités récurrentes et identifier des leviers d'efficacité sur l'ensemble des missions cybersécurité (gouvernance, réglementaire, opérationnel, etc.). Réalisations attendues : - Cartographier les cas d’usage IA de l’équipe Cyber et prioriser ceux susceptibles de tirer le plus de valeur (DLP, SOC, évaluation des tiers…) - Proposer des solutions IA ou data-driven pour optimiser ces activités Cyber en particulier ou sécurité en général - Mettre en œuvre les projets retenus en collaboration étroite avec l’équipe Cyber en particulier. Le candidat pourra être amené à intervenir sur d’autres sujets Cyber Sécurité, en renfort à l’équipe. CONDITIONS TECHNIQUES DE LA PRESTATION La prestation se déroulera au sein du service ISS en charge de la sécurité informatique, en étroite collaboration avec les équipes IT et métier. RESULTATS ATTENDUS/LIVRABLES • Réalisation d’analyse de risques (évaluation du risques, identification de scénarios, proposition de mesure d’atténuation, recette sécurité…) • Analyse de la maturité des tiers et réalisation de synthèse et plan d’action associé • Conseiller, challenger et collaborer étroitement avec les équipes métier et IT. PRE-REQUIS Compétences techniques recherchées :  Diplômé(e) d’une école d’Ingénieurs en informatique ou équivalent avec une expérience de 3 ans minimum dans l'élaboration d'architectures IA et Cybersécurité.  Maîtrise des standards (MITRE ATLAS, NIST, OWASP, AISPM) et une bonne connaissance du cycle de vie et des risques propres à l’IA  Compétences en développement ainsi que dans la mise en place et l’intégration de modèles d’IA (Python, machine learning/deep learning, modélisation, etc.) Autres compétences recherchées :  Français, Anglais niveau intermédiaire (B2) CALENDRIER D’EXECUTION DE LA MISSION Début de l’intervention : Mars 2026 Durée d’intervention souhaitée : 3 ans Paris, France Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours / semaine
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
246359/Devops IA Bordeaux

WorldWide People
Publiée le
IA

3 mois
350 €
Bordeaux, Nouvelle-Aquitaine
Devops IA Bordeaux Minimum 5 ans d'expérience requis sur ce poste Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Au sein de l'équipe, vous mettrez vos compétences au service de l'IA. Objectifs et livrables Vous serez notamment charge de : - Conception et gestion de la plateforme IA: Administrer et optimiser les clusters (Kubernetes) et les ressources de calcul (GPU/CPU). - Industrialiser le déploiement des environnements hors prod et prod via de l'infrastructure as code. - Mise en place de CI/CD pour les applicatifs de l'IA. - Monitoring et Observabilité: Déployer des outils de supervision avancés pour garantir la haute disponibilité des services IA et le suivi des performances système. - Optimisation et FinOps: Piloter la consommation des ressources cloud/on-premise pour rationaliser les coûts liés à IA. - Expertise technique: Accompagner les MLOps de l'équipe dans l'adoption des meilleures pratiques DevOps et assurer une veille technologique. Minimum 5 ans d'expérience requis sur ce poste Le profil recherché est un expert de l'infrastructure possédant une forte culture logicielle pour dialoguer avec les équipes data et datascience, et un intérêt pour le domaine de l'intelligence artificielle. Compétences techniques requises : - Maîtrise DevOps avancée : Expertise confirmée sur Kubernetes, Docker, Helm et la gestion de pipelines complexes. - Infrastructure as Code : Très bonne connaissance d'outils comme Terraform. - Software Engineering : Solides bases en développement (designs patterns, bonnes pratiques de dev, archi logicel, tests...) en Python prioritairement. - Systèmes et Cloud : Bonne maîtrise des environnements Linux et des services Cloud (Azure) liés au calcul et au stockage. - BONUS : Connaissance MLOps et services Cloud (Azure prioritairement) Compétences demandées Compétences Niveau de compétence MLOps Élémentaire Python Confirmé Kubernetes Confirmé IA Avancé Docker Confirmé
Freelance

Mission freelance
Appui AMOA Data / IA (4 ETP)

Signe +
Publiée le
AMOA

6 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Cadrage et mise en œuvre de besoins IA. Missions Cadrage fonctionnel des besoins IA Appui au pilotage Accompagnement de la réalisation Compétences obligatoires Expérience en cadrage fonctionnel Pilotage de projet Data / IA Bonne compréhension des enjeux IA Profil recherché Expérience AMOA Data Capacité à structurer des besoins complexes Interface métier / technique Contexte Cadrage et mise en œuvre de besoins IA. Missions Cadrage fonctionnel des besoins IA Appui au pilotage Accompagnement de la réalisation Compétences obligatoires Expérience en cadrage fonctionnel Pilotage de projet Data / IA Bonne compréhension des enjeux IA Profil recherché Expérience AMOA Data Capacité à structurer des besoins complexes Interface métier / technique
Freelance

Mission freelance
Architecte Développeur .NET - Lyon

Tenth Revolution Group
Publiée le
.NET
Agent IA
React

6 mois
100-550 €
Lyon, Auvergne-Rhône-Alpes
Je recherche un(e) Architecte Développeur .NET pour l'un de mes clients à Lyon. Démarrage ASAP. 3 jours sur site par semaine à Lyon. Longue mission. Contexte technique Environnement principal : .NET Front-end : React Back-end / stockage documentaire : SharePoint (non figé – à définir) Écosystème évolutif nécessitant une approche multi-technologies Enjeux autour de la gestion documentaire et de l’intégration d’IA Missions Définir et concevoir une architecture scalable et évolutive Intervenir activement en développement sur les composants clés Mettre en place un front-end React connecté via API Analyser, challenger et proposer les meilleures solutions techniques (SharePoint ou alternatives) Travailler dans un environnement multi-technologies (back, front, API, outils tiers) Concevoir un plan d’intégration de l’IA pour la valorisation documentaire Assurer la cohérence globale entre les différents environnements techniques Produire une documentation technique complète Livrables attendus Architecture validée, documentée et pérenne Front-end opérationnel connecté via API Stratégie d’intégration IA Documentation technique détaillée Profil recherché Expérience solide en tant qu’ Architecte / Lead Developer .NET Profil hands-on avec forte capacité d’adaptation technique Maîtrise de plusieurs environnements et stacks (Microsoft, web, API, etc.) Bonne expertise en React Expérience en intégration de systèmes et architectures complexes Connaissance de SharePoint ou solutions de gestion documentaire Sensibilité aux sujets IA / data / recherche documentaire Capacité à naviguer dans des environnements non figés
Freelance
CDI

Offre d'emploi
TECH LEAD DATA GCP

UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
CDI

Offre d'emploi
Product Manager Expert Data / BI (/NB) F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le

Puteaux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Lead Data Architecte Sénior

Nicholson SAS
Publiée le
CRM
Google Cloud Platform (GCP)
SQL

9 mois
400 €
Massy, Île-de-France
Lead Data Architect Senior – Supply Chain Analytics Lieu : Massy (91) – Hybride (2 jours sur site / semaine) Durée : ASAP jusqu’au 31/12/2026 TJM : 400 € 🎯 Le Rôle : Pivot Stratégique & Technique Au cœur de l’ Analytics Factory , véritable moteur de la transformation numérique du groupe, vous rejoignez l’équipe Data Translation Supply Chain . Votre mission est cruciale : être le trait d’union entre les enjeux métier de la Supply Chain (prévisions de ventes, optimisation des flux, planification entrepôts) et l'excellence technique des équipes Data (Scientists, Engineers, Gouvernance). Vous ne vous contentez pas d'analyser ; vous guidez les décisions stratégiques du nouveau Directeur de la Supply Chain. Vos principales responsabilités : Data Translation : Traduire les problématiques business complexes en solutions analytiques concrètes. Analyse & Modélisation : Piloter des analyses approfondies nécessitant une forte agilité et un esprit critique pour challenger les demandes métier. Restitution de haut vol : Assurer la communication et la vulgarisation des résultats auprès du Top Management. Amélioration Continue : Évaluer la qualité du code, optimiser les solutions existantes et garantir le respect des standards élevés du groupe. 🛠 Environnement Technique & Expertises Nous recherchons un profil capable de manipuler de larges volumétries de données avec une aisance absolue. Maîtrise incontournable : SQL (BigQuery), outils de Datavisualisation (Tableau, Google Looker Studio). Les "Plus" : Maîtrise de Python et GitLab . Data Science : Solide compréhension des principes de modélisation pour interagir efficacement avec les Data Scientists. Infrastructure : Expertise en Architecture de données et environnement Google Cloud Platform (GCP) . 🎓 Profil recherché Formation : Diplôme d’Ingénieur ou équivalent Bac+5 de haut niveau en Maths/Stats). Expérience : +7 ans d’expérience en Data, dont au moins 2 ans dans le secteur du Retail (ou conseil spécialisé) et 2 ans spécifiquement sur des sujets Supply Chain . Soft Skills : * Posture "Top Management" : excellente communication orale et écrite. Capacité de vulgarisation de sujets complexes. Rigueur, autonomie et proactivité. 💻 Cadre de travail & Moyens Équipement : Laptop professionnel haut de gamme (i7/Ryzen 7, 16 Go RAM, SSD) fourni. IA Générative : Accès aux solutions d'IA sécurisées internes du groupe (usage d'IA externes proscrit pour garantir la sécurité des données). Culture : Intégration dans une équipe agile, mature et experte, favorisant l'apprentissage continu.
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Numpy
Python

Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Développeur IA Python (AI-Native Developer)

TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow

1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!
433 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous