Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 résultats.
Freelance

Mission freelance
Ingénieur data confirmé (H/F) - 44

Mindquest
Publiée le

12 mois
Nantes, Pays de la Loire

Pour le compte de notre client, dans le cadre d’un renfort de ses équipes BI, je suis à la recherche d’un Ingénieur data confirmé ayant de bonnes appétences fonctionnelles pour une intégration dès à présent au sein des équipes BI. L'équipe est en charge du traitement et mise à disposition des données de l'ensemble des pôles métiers, de l'intégration de flux de données ou de transmission de flux avec des applicatifs interne ou externe. Sur les projets build *Contribuer au recueil et analyse des besoins exprimés avec un rôle de conseil et d'accompagnateur auprès de nos métiers *Contribuer à la rédaction des expressions de besoin (Tableau de bords, flux de données, Entrepôt de données...) *Concevoir les solutions techniques et les développer *Rédiger les tests d’intégration et les exécuter *Reporter au chef de projet Sur le run *Maintien en condition opérationnelle du portefeuille d'applications *Suivi d'exploitation *Assistance auprès de nos métiers sur les applications Data Lieu : Nantes (44) + remote (1 jour par semaine) Localisation : Nantes Démarrage : ASAP Durée : 12 mois renouvelables

Freelance
CDI
CDD

Offre d'emploi
Ingénieur Big Data

VISIAN
Publiée le
Docker
Hadoop
Kubernetes

1 an
40k-45k €
490-600 €
Montpellier, Occitanie

Nous recherchons un ingénieur Big Data confirmé pour intervenir sur une plateforme Datalake de grande envergure. Vous apporterez votre expertise technique sur l’exploitation et l’évolution d’un écosystème Big Data complexe et moderne, et contribuerez à son maintien en condition opérationnelle ainsi qu’à son amélioration continue. Vos principales missions : Assurer le maintien en conditions opérationnelles de la plateforme Big Data (MCO, incidents, demandes projets/utilisateurs). Contribuer à l’ implémentation et à l’automatisation des solutions. Réaliser et suivre les mises en production . Participer à l’ amélioration continue des outils et processus d’exploitation. Communiquer et accompagner les utilisateurs finaux. Produire les livrables attendus : Récapitulatif mensuel des tickets traités (incidents, demandes). Statut bimensuel des projets en cours.

Offre premium
Freelance

Mission freelance
Data ingénieur Python Arflow 400 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

2 ans
300-400 €
Île-de-France, France

Data ingénieur Python Arflow 400 e par jour je suis à la recherche d’un profil Data Ingénieur confirmé (4-5 ans XP, avec de solides compétences en : Python Arklow, IOT ou traitement de données en temps réel, SQL et AWS Développement en python AIRFLOW , AWS, SQL , IOT Bonne connaissance de Python Bonne capacité d'adaptation, bon relationnel , ayant travaillé sur des projets similaire. Bonne expression Mission gagnée en région Parisienne Asap Budget 400 e par jour Merci par avance pour la proposition de CV

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

12 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

5 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous