L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 021 résultats.
Offre d'emploi
Data Scientist
R&S TELECOM
Publiée le
Agent IA
Google Cloud Platform (GCP)
Python
6 mois
Corenc, Auvergne-Rhône-Alpes
Contexte de la mission : Pour notre client dans le domaine bancaire, nous recherchons un profil de Data Scientist Tâches à réaliser : Piloter et réaliser des projets de data sciences / intelligence artificielle directement avec les métiers, sous supervision du tech lead data scientist (data préparation, modélisation, data visualisation, normes gestion de projet) Coacher des étudiants dans la réalisation de POC Réaliser des actions d’acculturation et d’animation Accompagner les métiers à la réalisation de prompt, déploiement de LLM, agents/assistants Participer à la mise en place de l’environnement technique (sous GCP notamment) et des méthodes de gestion de projet Réaliser la Maintenance en Condition Opérationnelle des cas d’usages DS/IA industrialisés Collaborer et participer activement à la vie du service et du département et à l’amélioration continue de son fonctionnement Les actions réalisées s’inscrivent dans un cadre règlementaire et normatif, tant d’un point de vue sécurité des systèmes d’information que conformité, RGPD, IA Act et éthique La mission implique également une compréhension et une traduction fonctionnelle des activités et processus bancaires, une connaissance générale des produits et services bancaires serait donc un plus Compétences recherchées : Obligatoires : · Python · SQL · Capacité à animer des ateliers, à fédérer autour des sujets Data/IA, à vulgariser pour des publics néophytes Optionnelles : · Expérience sur GCP · Expérience en chef de projet Expérience nécessaire : Minimum 5 années d’expérience en data science (ML, DL, LLM) (profil ITS : Hors grille) Langues : Français Date de démarrage : ASAP Localisation : Locaux du client situés à Corenc (Grenoble) Possibilité d’interventions hors site Client : OUI (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : OUI (Environ une fois par mois) Autre matériel requis : NON
Offre d'emploi
Chargé des Systèmes d'Information & Data
FED SAS
Publiée le
50k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris 11ème, un Chargé des Systèmes d'Information & Data H/F dans le cadre d'un CDI. Rattaché(e) à la Direction Financière, le/la Chargé(e) SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il/elle intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il/elle est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Missions principales Data * Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) * Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) * Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données * Garantir la qualité, la sécurité et la conformité des données (RGPD) * Participer à la définition et au déploiement de la stratégie data de l'entreprise Logiciels & architecture SI * Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) * Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI * Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette * Assurer le support de niveau 2/3 auprès des utilisateurs internes * Maintenir la documentation technique et fonctionnelle des systèmes en place Infrastructure réseau * Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) * Assurer la disponibilité, la performance et la sécurité des connexions et des accès * Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique * Coordonner les interventions des prestataires télécoms et réseaux * Contribuer à l'extension du réseau IT vers les sites et points de vente du groupe Parc matériel * Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques * Assurer les achats, la configuration, le déploiement et le renouvellement du matériel * Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés * Diagnostiquer les pannes et coordonner les interventions de maintenance ou de remplacement
Mission freelance
Data Analyst – AI Governance
Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio
9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.
Offre d'emploi
Ingénieur Intégration HPC – Simulation Numérique
RIDCHA DATA
Publiée le
Calcul hautes performances (HPC)
Google Cloud Platform (GCP)
Linux
1 an
Île-de-France, France
🎯 Contexte Dans le cadre d’un programme stratégique autour de la simulation numérique , une grande organisation industrielle renforce ses équipes afin d’optimiser le développement de produits via des solutions de calcul avancé (HPC). La simulation numérique joue un rôle clé dans la réduction des coûts de prototypage et l’amélioration des performances, en s’appuyant sur un écosystème de logiciels métiers spécialisés (acoustique, thermique, etc.). 🚀 Missions principales Mise en place et maintien d’environnements Linux (Shell / Bash) Développement de scripts pour orchestrateurs HPC (Slurm, LSF) Installation et configuration de postes Windows 10/11 (Batch, PowerShell, XML) Monitoring des ressources (serveurs, licences) Diagnostic des incidents multi-environnements : Windows Linux Orchestrateurs Logiciels de simulation Utilisation de MPI pour le calcul distribué (multi-nœuds) Accompagnement des utilisateurs (support, compréhension des besoins) Participation à des projets en mode Agile Contribution à des environnements Cloud (notamment GCP) 📦 Livrables attendus Documentation technique (conception) Code source développé Tests unitaires et d’intégration
Mission freelance
Architecte Cloud Azure (H/F)
HOXTON PARTNERS
Publiée le
Azure
12 mois
400-550 €
Paris, France
Dans le cadre d’un projet international à forte exigence technique, nous recherchons un Architecte Cloud Azure pour intervenir sur la conception et l’exploitation de plateformes critiques. Vous évoluerez dans un environnement complexe nécessitant des standards élevés en matière de sécurité, performance et scalabilité. Missions Concevoir et faire évoluer des architectures Cloud Azure robustes et scalables Automatiser les déploiements via des pratiques d’Infrastructure as Code Mettre en place et optimiser des environnements Kubernetes Garantir la sécurité, la conformité et la haute disponibilité des plateformes Piloter la performance et l’optimisation des coûts (FinOps) Collaborer avec les équipes techniques dans une logique DevSecOps
Offre d'emploi
Administrateur Systèmes Cloud Azure (H/F)
DCS EASYWARE
Publiée le
Suresnes, Île-de-France
Dans le cadre de la modernisation et de la MCO de notre infrastructure cloud, nous recherchons un(e) Administrateur Systèmes Azure pour renforcer notre équipe IT à Lille. Vous jouerez un rôle central dans la gestion, la sécurisation et l’évolution de notre environnement Microsoft Azure, en appliquant les bonnes pratiques de gouvernance, sécurité, automatisation et FinOps, tout en accompagnant les projets métiers et certains usages Microsoft 365. Missions Concevoir, déployer et maintenir les Landing Zones Azure, en lien avec les enjeux sécurité et FinOps Administrer les environnements Azure IaaS / PaaS (VMs, App Services, réseau, bastion, sauvegarde, logs…) Superviser les abonnements Azure et analyser les coûts cloud Piloter les sujets IAM / RBAC / PIM et appliquer les politiques de sécurité cloud (en collaboration avec la SSI) Contribuer aux projets applicatifs hébergés sur Azure Assurer une administration secondaire des environnements Microsoft 365 (Power Platform, Entra ID, Exchange Online) Être l’interface technique entre les prestataires cloud, les équipes internes et les métiers Intervenir en backup sur les infrastructures LAN / WAN legacy (Cisco, Fortinet)
Offre d'emploi
Architecte Cloud Azure H/F
HAYS France
Publiée le
82k-90k €
Bordeaux, Nouvelle-Aquitaine
Vos missions sont les suivantes : Concevoir et structurer les fondations techniques des environnements cloud (architectures cibles, landing zones). Intégrer dès le lancement des projets les bonnes pratiques DevOps, CloudOps et FinOps. Intervenir chez les clients pour des missions de cadrage, d'audit, de migration ou d'optimisation des plateformes Azure. Préparer et animer des ateliers techniques pour sécuriser les choix d'architecture. Accompagner les équipes clientes et internes dans la mise en œuvre des solutions. Apporter une expertise avancée en architecture cloud, sécurité, automatisation et supervision. Encadrer et faire évoluer une équipe d'ingénieurs et de consultants cloud. Participer au recrutement, au mentoring et à l'animation des équipes. Contribuer à la montée en compétence interne par la veille, le partage et la formation. Promouvoir une culture d'excellence, d'innovation et de responsabilité technique. Piloter les dimensions FinOps des projets Azure. Mettre en place des indicateurs de suivi des coûts cloud. Sensibiliser les clients à la maîtrise budgétaire et à l'optimisation des dépenses. Éclairer les décisions d'architecture en intégrant systématiquement leur impact financier.
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
CONSULTANT MICROSOFT AZURE AD / ENTRA ID
PROPULSE IT
Publiée le
Azure
microsoft
24 mois
300-600 €
France
nous sommes à la recherche d'un consultant Entra ID afin de renforcer une équipe actuellement composée de 10 personnes. Le consultant devra avoir un minimum de 6 années d'expérience sur les solutions Microsoft Azure AD/ Entra ID (des compétences AD avec maîtrise du legacy sont déjà en place). Sa mission consistera à participer aux différents projets de reprise de l'activité ainsi qu'à assurer le run Entra ID sur le tenant existant. Run · Participation à la résolution des incidents et demandes de niveau 3 · Participation l'administration courante des solutions Entra ID et Active Directory. Projet · Participe activement aux projets de l'équipe en lien avec les différents acteurs et entités concernées Le lieu de la mission sera situé à La Defense avec une présence sur site de 2 jours. Un démarrage est attendu ASAP sur le mois de Janvier.
Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
PROPULSE IT
Publiée le
Azure
Cloud
24 mois
325-650 €
Paris, France
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Mission freelance
Data Scientist IA
Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)
1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Mission freelance
Enterprise Architect – Data Mesh
Signe +
Publiée le
Data Mesh
12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Mission freelance
Data Scientist IA
Tritux France
Publiée le
Algorithmique
Keras
Large Language Model (LLM)
3 ans
350-400 €
Île-de-France, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Mission freelance
Data Analyst Dataiku
BEEZEN
Publiée le
Dataiku
SQL
Tableau software
12 mois
400-550 €
Paris, France
Je recherche un Data Analyst Dataiku ayant un anglais fluent et ayant une experience en marketing Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : Reprendre et finaliser la Refonte des projets data marketing DMK Securiser et stabiliser le run Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) Construire des modèles prédictifs/scorings simples Automatiser le production de reportings mensuels pour direction Marketing Documentation Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Offre d'emploi
Data Scientist - (H/F)
DAVRICOURT
Publiée le
40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5021 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois