L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 736 résultats.
Offre d'emploi
Développeur Python Senior – AI-Native & Vibe Coding
VISIAN
Publiée le
Agent IA
Python
3 ans
40k-45k €
400-550 €
Île-de-France, France
Secteur : Grande Banque d'Investissement / Asset Servicing Localisation : Montrouge (92) - Hybride possible stack technique : Python, LLMs, LangChain, Cursor, AWS, MLOps 🌟 Le Challenge : L'IA au cœur de la production Vous n'allez pas simplement "coder en Python". Vous rejoignez une AI Factory de pointe pour transformer les métiers de la finance grâce à l'Intelligence Artificielle Générative. En tant qu' AI-Native Developer , votre mission est double : construire des solutions IA robustes (RAG, Agents, Fine-tuning) et révolutionner votre propre manière de produire du code en utilisant les outils les plus avancés de Vibe Coding . 🛠️ Vos Missions (Le "Build") Conception IA : Développer et optimiser des modèles ML/DL et des architectures de LLM (Hugging Face, LangChain) pour des cas d'usage métiers concrets. Vibe Coding Expert : Piloter le développement via des outils d'IA générative ( Cursor, GitHub Copilot, Claude ) pour accélérer le delivery sans jamais sacrifier la qualité. Industrialisation (MLOps) : Déployer vos modèles en production via des microservices ( FastAPI, Docker, Kubernetes ) et assurer leur monitoring. Qualité & Rigueur : Garantir la robustesse du code (Pytest) et auditer les suggestions de l'IA avec un esprit critique aiguisé. Collaboration Agile : Travailler en proximité avec les Data Scientists et les architectes dans un environnement international (Anglais requis). 🎯 Votre Profil (Le "Matching") Expérience : Minimum 5 ans en développement Python avec une spécialisation forte en IA/ML. Maîtrise GenAI : Vous savez manipuler les LLMs, faire du Prompt Engineering complexe et mettre en place des bases de données vectorielles. Productivité augmentée : Vous êtes un adepte du "Vibe Coding" et maîtrisez parfaitement les assistants de code IA. Stack Technique : Expert en frameworks (PyTorch, Scikit-Learn) et à l'aise avec les plateformes Cloud ( AWS SageMaker ou équivalent). Mindset : Esprit critique, pragmatisme et capacité à décomposer des problèmes complexes en instructions claires.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Offre d'emploi
Commando-Ingénieur financier Produits structurés / Python
Digistrat consulting
Publiée le
Finance
Python
3 ans
40k-60k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Equipe est en charge des configurations des produits exotiques dans la chaine full automatique (Pricing, Booking, Documentation). La prestation consiste à contribuer à/au(x): - Ajouts de nouveaux produits dans la chaine automatique - Faire évoluer les produits existants (ajout de variations) Expertises spécifiques : Code (Python) Produits financiers EQD Exotiques Les livrables attendus sont : Modelisation des produits/ templates exotiques equity dans les chaines automatiques
Mission freelance
Data Manager (Power BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI
6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Offre d'emploi
Consultant IA / DATA
Tritux France
Publiée le
Data analysis
Data science
IA Générative
3 ans
Île-de-France, France
Apporter une expertise technique et produire des livrables sur les deux initiatives Low Code - No Code et Data Access ; API du plan stratégique de l'IT CIB. Expertise techniques data, API, Low Code - No Code, Citizen dev. Project management. Stratégie IT, Change et Transformation Contexte Vous rejoignez l’équipe Data & Innovation au sein de l’IT Transversale de Corporate ; Investment Banking. Nous travaillons à la réalisation de projets de data sciences (Data Analytics ; Visualization, Generative AI et Machine Learning) pour les métiers bancaires de la CIB afin d’explorer au maximum les opportunités business. Si vous êtes passionné par la Data Science et l'innovation technologique, vous serez heureux de rejoindre un environnement dynamique, exigeant et bienveillant au plus près du métier de la CIB.
Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)
Webnet
Publiée le
Azure
Azure Data Factory
BI
12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Mission freelance
Chef de Projet/ Data - Success factor (obligatoire) - Full Remote
WorldWide People
Publiée le
SAP SuccessFactors
9 mois
400 €
France
Chef de Projet/ Data - Success factor (obligatoire) EXP : +5 ans Compétences (1 à 3) : ☒ Gestion de projet 2 ☒ Conception de test 2 ☒ analyse de données 3 ☒ rédaction de contrat d’interface 2 ☒ définition de stratégie de recette 2 ☒ Coordination d’acteur 2 ☒ excel 3 ☒ Administration fonctionnelle de Success factor module EC 3 ☐ Outil de requêtage de base de données 3 ☐ Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => · Analyse et correction des erreurs. · Suivi quotidien des flux (API, IC, middleware). · Mise en qualité des échanges de données. Optimisation des flux SF ↔ middleware => · Audit des interfaces existantes. · Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => · Rédaction des specs techniques. · Coordination IT / middleware. · Tests et support post go-live.
Offre d'emploi
Data Scientist (NLP / LLM / Agentique) — Projet IA Télécom
TOP TECH
Publiée le
Agent IA
Large Language Model (LLM)
40k-50k €
France
Dans le cadre d’un programme stratégique d’industrialisation d’une solution IA innovante, un grand acteur des télécommunications renforce ses équipes Data. Suite à la mise en production d’une solution de relation client basée sur de l’IA Speech-to-Speech , le client déploie cette technologie sur plusieurs canaux digitaux à grande échelle. 👉 Nous recherchons plusieurs Data Scientists pour accompagner cette montée en charge. 🎯 Vos missions Vous interviendrez sur deux axes clés : 🔍 1. Monitoring & amélioration continue Suivi des performances des modèles en production Analyse des dérives et optimisation continue Mise en place d’indicateurs de qualité et de fiabilité 🧪 2. TestOps & industrialisation IA Conception d’une Test Case Factory automatisée Génération de scénarios de tests via des approches Data Science Validation des nouvelles versions des modèles IA Mise en place de stratégies de tests robustes pour garantir la qualité en production ✔️ Expérience requise : Expérience en NLP / LLM / Agentique (obligatoire pour profils expérimentés) Bonne compréhension des systèmes IA en production Expérience sur des problématiques liées au traitement du texte 🛠️ Compétences techniques Data Science (Python, ML, DL) NLP (Natural Language Processing) LLM (Large Language Models) Mise en production & monitoring de modèles Expérience en automatisation de tests (idéalement TestOps IA) 📍 Contexte Secteur : Télécommunications Projet : Déploiement à grande échelle d’une solution IA conversationnelle Environnement : Innovant, orienté industrialisation et passage à l’échelle
Offre d'emploi
OPS DATALAKE Senior Cloud Public/Privé
Deodis
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
54k-59k €
450-530 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à son expertise pour le Centre d'Expertise Data L’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : Assurer le maintien en conditions opérationnelles des plateformes Datalake on prem / AWs / Azure Gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux Contribuer à l’implémentation/automatisation des solutions Effectuer les actions de déploiement sur les environnements (int, preprod et prod) Contribuer à l’amélioration continue des outils d’exploitation et de déploiement Communication auprès du product owner
Offre d'emploi
Développeur.euse Python, Angular et .NET
Atlanse
Publiée le
.NET
Angular
Azure
1 an
60k-70k €
500-580 €
Île-de-France, France
Chez ATLANSE, nous accompagnons nos clients dans la conception d’infrastructures résilientes, l’amélioration de la performance de leur production applicative, l’optimisation et le développement des environnements de travail ainsi que l’exploitation et la valorisation des données. Pour cela, nous nous appuyons sur nos consultants confirmés et experts ou à fort potentiel, reconnus pour leurs compétences techniques, leur compréhension métier et leurs pratiques éprouvées. Vous intervenez sur la reprise de développements existants en Python et sur la création de nouvelles solutions en environnement Angular / .NET. Votre rôle Reprise, maintenance et refonte des applications existantes · Prendre en charge des développements Python réalisés par les équipes métiers · Analyser l’existant afin d’en assurer la compréhension fonctionnelle et technique · Optimiser, maintenir et faire évoluer les applications existantes · Piloter leur refonte ou leur migration si nécessaire Développement de nouvelles applications · Concevoir et développer de nouvelles applications en environnement Angular / .NET · Mettre en production les application développées dans le respect des besoins fonctionnels · Garantir leur robustesse, leur performance et leur maintenabilité Collaboration projet et partage de connaissances · Travailler en binôme avec un autre développeur sur certains sujets techniques · Partager les connaissances et contribuer à la montée en compétence collective · Assister le chef de projet dans la définition des solutions techniques adaptées
Mission freelance
Business Analyst – Global Markets - Paris
Net technologie
Publiée le
Business Analyst
Market data
1 an
Paris, France
Dans le cadre de la structuration Global Markets , nous recherchons un profil pour rejoindre l’équipe QIS (Quantitative Investment Strategies) , en Salle des Marchés; L’équipe QIS développe et promeut la gamme d’indices propriétaires. Le poste s’inscrit au sein de l’équipe QIS Transversal , intégrée à une Task Force stratégique visant à optimiser la chaîne de publication des indices (réduction de la maintenance quotidienne et du risque opérationnel). 🛠 Vos missions : Analyser l’existant et identifier les axes d’amélioration Proposer et structurer un plan d’action Coordonner les équipes impliquées (Structuring, Research, Dev, Trading, Legal – international) Concevoir un outil de suivi du processus opérationnel Assurer le reporting régulier auprès du management
Offre d'emploi
DATA ANALYST GCP (420€ MAX)
BEEZEN
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Mission freelance
Data Manager expert modélisation de données (H/F)
Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake
12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2736 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois