Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 110 résultats.
CDI
Freelance

Offre d'emploi
MLOps Engineer

SKOTT GROUP SAS
Publiée le
Docker
Kubernetes
Python

1 an
35k-70k €
440-670 €
Île-de-France, France

En tant que MLOps confirmé, l'objectif est de fournir une plateforme de données aux data scientists, tout en industrialisant les modèles d'apprentissage automatique. Il sera important d'être autonome sur l'industrialisation de modèles, mais également sur l'infra (compréhension de Docker/Kubernetes, mais aussi les modèles ML...) L'environnement technique comprend notamment: Python 3, OpenIDConnect, FastAPI, Redis, Ansible, Docker, Kubernetes, Beats, Elasticsearch, Grafana, Gitlab CI, Artifactory, Sonarqube...

Freelance

Mission freelance
Data Manager - H/F - 75 + remote

Mindquest
Publiée le
AWS Cloud
Snowflake
SQL

3 mois
400-550 €
Paris, France

Dans un contexte de forte croissance, notre client souhaite consolider ses modèles de données analytiques et améliorer la maturité agile de son équipe Data Platform. Mission Concevoir, documenter et maintenir les modèles de données analytiques (Silver & Gold layers dans Snowflake) Collaborer avec les Data Engineers, Analysts et Data Scientists pour garantir la cohérence et la performance des modèles Contribuer à la structuration des rituels d’équipe : sprint planning, stand-ups, revues, rétrospectives Accompagner la montée en maturité sur les bonnes pratiques de delivery et de gouvernance technique Participer à la mise en place de standards de modélisation et de tests de qualité dans dbt Documenter les modèles dans DataGalaxy (data catalog, lineage, ownership)

CDI

Offre d'emploi
Ingénieur DataOps IA

IS CONSEIL
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
IA Générative

France

Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.

Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

CAT-AMANIA
Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine

En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place

Freelance

Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
Hadoop

6 mois
450-500 €
La Défense, Île-de-France

Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.

Freelance

Mission freelance
Business analyst technique (RAG / IA Générative)

CHARLI GROUP
Publiée le
Data analysis
Data science
IA

1 an
500-650 €
Paris, France

🎯 Missions principales Mission de business analyst avec des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets. Suivre la production afin de garantir la satisfaction du client. 🧰 Environnement technique et fonctionnel Compétences analytiques requises : SQL, BI, statistiques de base Connaissance des problématiques fonctionnelles autour de la Data Ingénierie et de la BI Capacité à dialoguer avec des profils techniques et fonctionnels Expérience en environnement bancaire ou réglementaire appréciée

Freelance

Mission freelance
Teach Lead

Nicholson SAS
Publiée le
Big Data
Control-M
ETL (Extract-transform-load)

12 mois
400 €
Toulouse, Occitanie

Contexte / mission : Nous recherchons un data engineer senior, avec une forte expérience en Java/Spark, pour rejoindre l’équipe XXXXXXXX. L’équipe XXXXXXXXX est composée de business analysts, développeurs interfaces graphiques, data scientists et data engineers. Les data engineers sont responsables de la partie prétraitement des données. Ils gèrent les pipelines de données qui alimentent les modèles prédictifs, avant de transférer les données calculées vers le back-end des interfaces graphiques. La solution actuelle, on-premise, est en cours de migration vers GCP. Domaine métier : E&M

CDI

Offre d'emploi
Développeur Python / Django

VISIAN
Publiée le
Django
Python

40k-45k €
Paris, France

Descriptif du poste La prestation se fera au sein d'une équipe IT dédiée. Le prestataire interviendra comme développeur senior sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix sur le marché de l'électricité Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Le développement de correctifs et d'évolutions sur l'ensemble du périmètre • Définition de nouvelles architectures et implémentation de nouvelles solutions • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Le support technique et accompagnement des utilisateurs (analystes, data scientists...)

CDI
Freelance

Offre d'emploi
Ingénieur Big Data (F/H)

CELAD
Publiée le
Big Data

1 an
40k-45k €
420-450 €
Lyon, Auvergne-Rhône-Alpes

A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (40-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur Big Data pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Analyser le fonctionnement des chaînes communicantes et modéliser leur comportement - Construire des outils de supervision en temps réel et des systèmes de détection automatique d’anomalies - Industrialiser les prototypes pour les intégrer dans des outils de supervision - Encadrer et faire progresser une petite équipe de Data Scientists - Effectuer une veille technologique sur les outils Data & IA utilisés au sein du projet - Participer à la conception de solutions permettant le traitement de gros volumes de données sécurisées

Freelance
CDI

Offre d'emploi
Data Engineer (Bordeaux)

CAT-AMANIA
Publiée le
BI
Python
Snowflake

3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine

En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data

Freelance

Mission freelance
Data Engineer

Gentis Recruitment SAS
Publiée le
Apache Airflow
AWS Cloud
Dataiku

12 mois
Paris, France

Contexte : Notre client, un grand groupe du secteur retail, déploie une plateforme Dataiku pour industrialiser la préparation et le scoring de ses modèles analytiques. Missions : Concevoir et maintenir des pipelines Dataiku Automatiser les processus de traitement et de scoring des données Garantir la qualité et la traçabilité des datasets Travailler en lien étroit avec les Data Scientists et les équipes métier Stack technique : Dataiku, Python, SQL, Airflow, Git, Docker, AWS S3 Profil recherché : Expérience confirmée sur Dataiku (projets réels en prod) Bon niveau en Python / SQL Capacité à travailler en mode agile, avec un fort sens de la communication

Freelance
CDI

Offre d'emploi
Data Engineer Python / AWS

VISIAN
Publiée le
AWS Cloud
PySpark
Python

3 ans
Paris, France

Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…

Freelance
CDI

Offre d'emploi
Business Analyst IA générative et de la RAG - IDF - Plus de 9 ans

Digistrat consulting
Publiée le
BI
Méthode Agile

3 ans
50k-65k €
500-550 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : 💡 Contexte /Objectifs : Le département Tech Expertise & Solutions a pour vocation d'accompagner la transformation digitale de nos métiers, en lien avec la stratégie du client. Ce centre d'expertise transverse est orienté développement, innovation, data, IA... Prestation au sein du Lab Innovation, en charge de concevoir des projets pilotes et produits finis innovants à destination du groupe et des clients. Nous recherchons un business analyst ayant des connaissances sur les sujets d'IA et d'IA générative, afin de travailler notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative, aussi connu sous le terme RAG (Retrieval Augmented Generation). 🤝 Les missions sont : • Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists. • Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées. • Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration. • Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme. • Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets • Suivre la production afin de garantir la satisfaction du client.

Freelance

Mission freelance
Data Engineer Databricks (F/H)

Quick Source
Publiée le
Databricks

1 an
500-550 €
Saint-Denis, Île-de-France

Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Freelance
CDI

Offre d'emploi
Tech Lead Data

Craftman data
Publiée le
Apache Spark
Databricks
Microsoft Power BI

14 mois
45k-60k €
550 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Contexte de la mission Michelin renforce son pôle Data et recherche un Tech Lead Data expérimenté pour intervenir en binôme avec un autre lead sur des projets stratégiques de modernisation et d’industrialisation de la donnée sur Azure Databricks . Le consultant participera activement à la conception, la mise en place et l’optimisation des pipelines Data tout en accompagnant les équipes internes dans la montée en compétences. Responsabilités principales Piloter la conception et l’architecture des solutions data sur Azure Databricks . Garantir la qualité, la performance et la sécurité des flux de données. Encadrer techniquement les développeurs data et assurer le mentoring sur les bonnes pratiques. Participer à la mise en production et à l’industrialisation des traitements. Collaborer avec les équipes BI, Data Scientists et les métiers pour transformer les besoins en solutions concrètes. Mettre en place des standards de développement (CI/CD, tests, monitoring). Profil recherché Expérience : Minimum 6 ans dans l’écosystème Data (dont au moins 2 ans comme Tech Lead ou Référent Technique). Expertise technique : Databricks & Spark (avancé) Azure Data Services (Data Factory, Data Lake, Synapse, etc.) Python et SQL (confirmé) “Vernis” Power BI pour l’interfaçage avec les équipes reporting Soft skills : leadership technique, autonomie, rigueur, communication claire en français et anglais. Bonus : expérience en environnement industriel ou groupe international.

Freelance
CDI

Offre d'emploi
Data Engineer

CELAD
Publiée le
Azure Data Factory
Big Data

1 an
49k-55k €
400-550 €
Île-de-France, France

Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

110 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous