L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 951 résultats.
Mission freelance
Data Engineer Python – Data Platform & Data Governance
Deodis
Publiée le
BI
Data Engineering
Data quality
1 an
340-500 €
Île-de-France, France
Dans le cadre de l’évolution de sa Data Platform, le client recherche un Data Engineer Python pour intervenir au sein de l’équipe DataHub Core Platform. La mission consiste à contribuer aux projets de migration vers une nouvelle plateforme, au développement de nouveaux cas d’usage BI ainsi qu’à la mise en place de workflows en Python. Le consultant participera également à des projets stratégiques tels que le Transaction Profiling, le Data Quality Framework (DQF) et le Data Lineage, avec pour objectif d’améliorer la qualité, la fiabilité et la traçabilité des données. Il sera aussi en charge du développement de modules Python mutualisés, réutilisables sur l’ensemble des projets data, dans un environnement dynamique et orienté gouvernance des données.
Offre d'emploi
Data Engineer Python
Signe +
Publiée le
Python
24 mois
45k-50k €
322-500 €
Lyon, Auvergne-Rhône-Alpes
Missions : Développer et maintenir des produits data avec des contrats clairement définis. Concevoir et maintenir des pipelines de données batch et event‑based. Construire des pipelines Polars hautement performants. Supporter et optimiser des workflows à grande échelle sur Databricks. Mettre en place des processus robustes d'ingestion, de transformation et de validation des données, en visant performance, scalabilité et résilience. Garantir une haute qualité de données grâce à des validations et des tests automatisés. Gérer les composants de stockage et data lake de Azure Cloud conformément aux standards internes. Contribuer à l'automatisation CI/CD GitLab et assurer une haute qualité du code Python produit. Compétences : Forte expertise en Python (clean architecture, performance, tests). Expérience dans la création de data pipelines en Python. Expérience avec des bibliothèques de traitement de données : Polars, Pandas, Databricks, DBT, etc. Maîtrise d'outils d'orchestration de workflows : Prefect, Airflow, Dagster… Solide compréhension du data modeling et du design de schémas. Connaissance des bonnes pratiques d'ingénierie logicielle : CI/CD, code review, tests automatisés… Soft skills : Excellentes compétences en résolution de problèmes, autonomie, envie d'apprendre. Forte attention portée à la qualité et à la fiabilité des données. Aisance dans des environnements d'ingénierie collaboratifs. Capacité à documenter et communiquer clairement des concepts techniques. Les compétences techniques priment sur le nombre d'années d'expérience. 2J TT/semaine Compétences techniques requises : Python Azure Databricks CICD Pandas GitLab
Offre d'emploi
DATA ENGINEER PYTHON
UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins
3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Offre d'emploi
Data Engineer Big Data/Teradata
VISIAN
Publiée le
Apache Spark
Big Data
Python
2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
Offre d'emploi
Data Engineer Big Data / BI
adbi
Publiée le
Apache Hive
Apache Spark
Cloudera
12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Offre d'emploi
Data Scientist Senior — Expert IA Générative
Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)
12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Offre d'emploi
Data Scientist, expert python , pyspark, Azur (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
Data management
45k-50k €
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data engineer Python
UCASE CONSULTING
Publiée le
Azure
CI/CD
Flask
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous, Notre client recherche un Data Engineer Python afin de renforcer ses équipes data intervenant sur plusieurs projets de traitement et d’industrialisation de données dans un environnement cloud . L’objectif de la mission est de participer au développement et à l’évolution de solutions data utilisées par différentes applications métiers. Vous interviendrez au sein d’une équipe de Data Engineers travaillant en méthodologie agile , sur des projets mêlant développement de pipelines de données, services data et maintenance évolutive dans un environnement Python / Cloud . Vos missions Concevoir et développer des pipelines de traitement de données en Python Participer au développement de services ou APIs data Implémenter les User Stories et contribuer aux sprints agiles Réaliser les tests techniques et produire la documentation associée Participer à l’ industrialisation des développements (CI/CD, monitoring) Contribuer aux évolutions et à la maintenance des applications data existantes
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Mission freelance
Data Engineer Expert (Python & Databricks)
Nicholson SAS
Publiée le
CI/CD
Databricks
Gitlab
8 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Industrie / Mobilité Localisation : Lyon (Rythme : 3 jours/semaine sur site) Démarrage : ASAP Clôture prévisionnelle : 31/12/2026 Le Challenge Intégré(e) à un environnement technologique de pointe, vous aurez pour mission de concevoir et d'industrialiser des produits data robustes. Votre objectif : garantir la fluidité, la scalabilité et la résilience de pipelines de données complexes, tout en imposant une culture de "Data Contract" et de qualité logicielle. Vos Responsabilités Ingénierie de données : Concevoir, développer et maintenir des pipelines batch et event-based haute performance. Optimisation & Scalabilité : Construire des flux Polars optimisés et supporter des workflows à grande échelle sous Databricks . Qualité & Fiabilité : Mettre en œuvre des processus de validation et de tests automatisés pour garantir l'intégrité absolue des données. Cloud & Industrialisation : Gérer les composants de stockage Azure et piloter l’automatisation via des pipelines CI/CD GitLab . Standards Software : Garantir la production d'un code Python exemplaire (Clean Architecture, revues de code, performance). Stack Technique Cible Langage : Python (Expertise Clean Architecture & Performance). Traitement : Polars, Pandas, Databricks, dbt. Orchestration : Prefect, Airflow ou Dagster. Cloud & Ops : Azure Cloud, GitLab CI/CD. Méthodologie : Data Modeling, design de schémas, tests automatisés. Profil Recherché Plus qu'un nombre d'années d'expérience (+4 ans suggérés), nous recherchons une véritable culture de l'ingénierie logicielle . Mindset : Esprit analytique, autonomie et forte capacité de résolution de problèmes techniques. Soft Skills : Excellente communication technique, goût pour le travail collaboratif et rigueur documentaire. Exigence : Une attention particulière portée à la "Product Value" et à la durabilité des solutions livrées. Conditions de la prestation TJM : 400 € Langue : Français / Documentation technique en Anglais Atout : Capacité à monter rapidement en compétence sur de nouveaux outils d’orchestration et de traitement. Note : Cette mission s'adresse à un profil passionné par l'efficience du code et la robustesse des architectures de données modernes.
Mission freelance
Développeur Fullstack Innovation F/H
SOFTEAM
Publiée le
Big Data
Linux
Python
3 mois
400-550 €
Île-de-France, France
Notre client recherche un prestataire Développeur Fullstack pour rejoindre son équipe d'innovation. Le prestataire sera rattaché au responsable de l’Innovation au sein de la direction Stratégie Digitale et Innovation (de la DSI). De la conception au développement/déploiement, le prestataire sera le référent technologique sur les projets Innovation dont il aura la charge. Il garantira leur faisabilité, les développera et assurera leur industrialisation et leur intégration avec les systèmes d’information et les équipes de la DSI
Offre d'emploi
AI Tech Lead – Data Architecture & Big Data (Python / Oracle / Angular)
Deodis
Publiée le
Agent IA
Angular
Big Data
1 an
40k-62k €
500-640 €
Île-de-France, France
En tant que Tech Lead IA & Data Architect , vous intervenez au sein de la DSI Groupe pour accompagner la mise en place de solutions innovantes autour de l’intelligence artificielle et de la data. Vous jouez un rôle central entre les équipes métiers et techniques, avec une double casquette : expertise technique et pilotage de projets . Dans un environnement international, vous contribuez à la conception, au développement et au déploiement de solutions data performantes, tout en garantissant leur qualité, leur sécurité et leur alignement avec les enjeux business. Analyser et comprendre les besoins métiers afin de proposer des solutions adaptées Concevoir et définir l’architecture technique des solutions Data & IA Piloter le développement et l’intégration des modèles d’intelligence artificielle Assurer la qualité, la performance et la sécurité des solutions mises en production Encadrer et accompagner les équipes techniques sur les sujets IA Gérer les priorités, les plannings et le suivi des livrables Assurer la communication et le reporting auprès des parties prenantes
Offre d'emploi
Ingénieur Réseaux LAN/WIFI (H/F)
RIDCHA DATA
Publiée le
Ansible
CCNA
Cisco
1 an
Paris, France
Dans le cadre de cette mission, vous serez en charge de la gestion et de la maintenance des infrastructures LAN et WIFI existantes. À ce titre, vos principales responsabilités seront : Assurer la gestion des incidents en collaboration avec les équipes locales sur les différents sites ainsi qu’avec le partenaire d’exploitation en charge des niveaux L1 et L2 Analyser et résoudre les problématiques liées aux environnements LAN / WIFI / Cloud Ouvrir, suivre et piloter les incidents auprès des mainteneurs Garantir la qualité et la continuité de service des infrastructures réseau 📦 Livrables attendus Comptes rendus de réunions Documents d’architecture réseau Documents d’exploitation Procédures opérationnelles Supports de documentation (utilisateurs et équipes support)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
951 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois