Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 9 résultats.
Freelance

Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
Hadoop

6 mois
450-500 €
La Défense, Île-de-France

Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.

Freelance
CDI

Offre d'emploi
Développeur Data (Bordeaux)

CAT-AMANIA
Publiée le
Apache Kafka
DBT
Microsoft Power BI

3 mois
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine

En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place

Freelance
CDI

Offre d'emploi
Data Engineer (Bordeaux)

CAT-AMANIA
Publiée le
BI
Python
Snowflake

3 mois
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine

En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data

Freelance
CDI

Offre d'emploi
Ingénieur Prod Data / DataOps Engineer (Pas de profils Data Engineer / Data Scientist)

LOMEGARD
Publiée le
Azure DevOps
Dataiku

3 ans
40k-60k €
400-600 €
Île-de-France, France

Pour l'un de nos clients nous recherchons un(e) Ingénieur de Prod Data, qui sera amené à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers. Les principales missions sont les suivantes : Administration de la plateforme Data et de ses outils Administrer les composants Dataiku et CloudBeaver de la plateforme (installation, configuration, monitoring, backup, montées de version…) Faire évoluer et gérer le maintien en conditions opérationnelles de l’environnement analytics et data science axé sur Dataiku (DSS, Fleet Manager, Spark sur EKS) Accompagner les utilisateurs sur les best practices et l’industrialisation des projets métiers Support et expertise technique Résoudre les incidents impactant les plateformes Conseiller les équipes du Data Office (Data engineers / Data scientists / Data analysts / BI engineer) sur les choix d’implémentation (architecture et technologie) Réaliser des audits techniques, des analyses de performance (requêtes SQL, jobs Spark, fonctions Lambda, entraînement modèles ML, …) ou des PoC. Evolution de l’infrastructure : Evaluer l'infrastructure actuelle et proposer si besoin une stratégie de modernisation progressive des composants legacy (IaaS) vers des solutions cloudnatives (PaaS/SaaS/Serverless), en intégrant les pratiques DevOps (IaC, CI/CD, automatisation) et FinOps Développer et implémenter les nouveaux patterns d’acquisition et de traitement de données (micro-batch, streaming, event-driven, transactionnel)

Freelance

Mission freelance
Data Engineer Databricks (F/H)

Quick Source
Publiée le
Databricks

1 an
500-550 €
Saint-Denis, Île-de-France

Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Freelance

Mission freelance
Administrateur(trice) Dataiku DSS - LUXEMBOURG

FUZYO FRANCE
Publiée le
Dataiku
Python
Scripting

6 mois
400-550 €
Luxembourg

Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée

CDI

Offre d'emploi
Data Engineer

TOHTEM IT
Publiée le

35k-42k €
Paris, France

Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Freelance

Mission freelance
Product Owner IA

Signe +
Publiée le
Agile Scrum

6 mois
400-620 €
Grenoble, Auvergne-Rhône-Alpes

Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Freelance

Mission freelance
POT8608-Un Product Owner IA sur Grenoble

Almatek
Publiée le
Azure

6 mois
260-400 €
Grenoble, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients, un PO IA sur Grenoble. Context : Le prestataire sera responsable de la définition, de la priorisation et de la mise en œuvre des fonctionnalités de la plateforme, afin de soutenir : Les workflows classiques de machine learning, Les outils low-code/no-code destinés aux « citizen developers » et aux utilisateurs métiers. Cela implique une collaboration étroite avec les équipes d’ingénierie, de MLOps, de gouvernance des données et de conformité, afin de garantir des solutions robustes, évolutives et centrées sur l’utilisateur. Livrables attendus: Définition et priorisation du backlog: Établir et maintenir un backlog clair, exploitable et aligné sur les besoins des utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités de plateforme. Contribuer à la planification des Program Increments (PI) et à l’affinage du backlog conformément aux pratiques Agile SAFe. Découverte produit et validation: Mener des activités de discovery afin de valider les problématiques utilisateurs et tester les idées de solutions. Veiller à ce que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transverse: Coordonner avec les parties prenantes internes (ingénierie, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption et accompagnement de la plateforme: Soutenir l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’utilisation et recueillir les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et accompagner les citizen developers grâce à des outils intuitifs et une documentation claire. Contribution stratégique: Définir et communiquer la vision autour du machine learning classique et de l’approche low-code/no-code. Identifier des opportunités d’innovation et d’amélioration de l’efficacité. Se tenir informé des tendances du marché et des technologies émergentes. Compétences requises: Expérience avérée en tant que Product Owner ou Product Manager, idéalement dans le domaine des plateformes data/IA. Solide compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience dans des environnements cloud natifs (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion des parties prenantes. Compétence linguistique: anglais courant.

9 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous