Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 61 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
CDI

Offre d'emploi Ingénieur de données (H/F)

DSI group
Publiée le
Apache Airflow
Azure
Database

40k-50k €
Luxembourg
DSI GROUP recherche pour son client un(e) Ingénieur de données (H/F), au Luxembourg. Vos missions sont les suivantes : Conception, développement et maintenance de l’infrastructure de données pour les applications de science des données Conception, développement et maintenance des pipelines de données pour l’ingestion, la transformation et le chargement des données en provenance de différentes sources Conception de modèles et de schémas de données pour un stockage et une récupération de données optimisés en collaboration avec les data scientists et les analystes Gestion de la validation et du déploiement de divers modèles d’apprentissage automatique Gestion des bases de données relationnelles (MS-SQL) et non relationnelles (Mongo DB) en garantissant les performances, la disponibilité et la sécurité Développement et support des data scientists avec des technologies et des cadres de big data basés sur le cloud Utilisation rentable des services cloud de MS Azure pour le stockage, le calcul et l’analyse des données Collaboration avec les équipes informatiques transversales et les contreparties métier pour fournir des solutions de science des données répondant aux besoins métier Garantie de la sécurité des données dans la manipulation et le stockage des données en mettant en œuvre des contrôles d’accès et d’autres mesures de sécurité Garantie de la qualité des données en mettant en œuvre des vérifications de qualité des données et une gouvernance des données Proposition, conception, documentation et mise en œuvre de l’architecture des applications. 🔎 Compétences et expériences requises : Maîtrise des langages de programmation tels que Python, Java, Scala, etc. Compréhension approfondie des concepts et techniques d’apprentissage automatique, avec une expérience de déploiement et de surveillance de modèles d’apprentissage automatique en production. Connaissance experte des systèmes de base de données tels que MS SQL, MySQL, Oracle, MongoDB, etc. Expérience dans la conception, le développement et la maintenance de pipelines ETL avec des outils tels que Apache NiFi, Apache Airflow, Azure Databricks, etc. Expérience dans les services gérés d’Azure tels qu’Azure Machine Learning, Azure SQL Database, Azure Cosmos DB, etc. Bonne connaissance des technologies de conteneurisation comme Docker, Singularity et Kubernetes
Freelance

Mission freelance Data Engineer Sénior (Paris ou Bordeaux)

SURICATE IT
Publiée le
Apache Airflow
Apache Spark
Big Data

3 ans
100-650 €
Paris, France
Mission : Définition et implémentation de l’archi les applications Spark ainsi que pour les pipelines de prod de ML(évaluation des feature stores, refactoring de DAG Airflow) Accompagnement des Data Scientists lors de leur mise en prod Optimisation de la CI/CD Etc Expérience : 4 ans minimum en ML et/ou Data, NLP et traitement d’image Stack : Airflow, Delta Lake, Python, DataBricks, SQL, Spark, Ansible, Terraforl, etc Démarrage : ASAP Quasi Full Remote à l’issue du 1er mois Mission : Définition et implémentation de l’archi les applications Spark ainsi que pour les pipelines de prod de ML(évaluation des feature stores, refactoring de DAG Airflow) Accompagnement des Data Scientists lors de leur mise en prod Optimisation de la CI/CD Etc Expérience : 4 ans minimum en ML et/ou Data, NLP et traitement d’image Stack : Airflow, Delta Lake, Python, DataBricks, SQL, Spark, Ansible, Terraforl, etc Démarrage : ASAP Quasi Full Remote à l’issue du 1er mois
Freelance

Mission freelance Administrateur Datavirtualisation

Celexio
Publiée le
Ansible
Apache
Docker

1 an
440-620 €
La Défense, Île-de-France
Voici la description du poste : o Assurer le run du service Apache Dremio en place, via l’analyse, la résolution des incidents, ou des montées de version régulières du produit. o Prendre en charge le support et l’expertise autour du produit Dremio, ainsi que la relation avec l’éditeur et avec les équipes en charge des produits avec lesquels Dremio s’interface. o Informer l’équipe des évolutions, nouvelles possibilités apportées par l’outil Dremio ou les outils connectés à Dremio. o Pour les technologies ou cas d’usage validés, être en mesure de réaliser des MVPs afin de valider et documenter la faisabilité et l’intérêt de ces solutions. Environnement technique du poste : Ansible (Ansible 2.11 et +), Python (Python 3.6 +), Spark 3+ : spark SQL, Spark Streaming compris Serveurs Web et serveurs d’applications : Apache ou NGINX, Tomcat, etc Une maîtrise et une culture devops et Open Source (Jenkins ou outil CI/CD, Linux, Docker, Ansible ) Hadoop : expérience de un an minimum o Fonctionnement de l’architecture de base de la distribution, o Utilisation des technologies hive, Yarn, HDFS, Ranger, Maîtrise des éléments de sécurité suivants : o annuaires LDAP o Kerberos, oauth2, o droits POSIX et Access Control Lists, o privilèges de bases de données Le poste est basé à La Défense avec 2 jours de télétravail, nous recherchons donc un profil francilien :) Quelques tâches prévues à traiter : o Étude de l’utilisation d’Iceberg dremio et applications sur l’existant o Faire des montées de version sur Dremio (21 à 27) o Passer de Yarn à Kubernetes o Mise en haute disponibilité du coordinateur dremio
Freelance

Mission freelance Développeur java

COEXYA
Publiée le
Apache Kafka
Java
Powershell

1 an
100-510 €
Lyon, Auvergne-Rhône-Alpes
- Indexer et restituer de nouvelles sources de données via les techno cible de CATS (Kafka, Elastich, API Rest) avec le progiciel SINEQUA - Participer à l'amélioration des outils et à la mise en place de CI/CD, de bonne pratique DevOps - Réaliser des modifications sur l'IHM du moteur de recherche Développer de nouvelles fonctionnalités afin d'améliorer l'usage du moteur aux collaborateurs Kafka, AVRO, Powershell, Windows; IIS Java, JS, JSP, JPA Sprint Boot, Maven, LiquiBase, Quartz Sinequa, ElasticSearch C#
CDI
Freelance

Offre d'emploi INGENIEUR ETUDES ET DEVELOPPEMENT JAVA / DEVOPS - NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
Angular
AngularJS
Ansible

1 an
10k-55k €
Nantes, Pays de la Loire
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez une équipe qui évolue dans un contexte international. En qualité d'Ingénieur Etudes et Développement Java / Devops F/H, vous serez en charge de : Développer les nouvelles fonctionnalités pour faire évoluer le socle technique de notre client Assurer la maintenance corrective et évolutive en production Apporter votre expertise sur différents projets Le poste est à pourvoir sur Nantes (44). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.
Freelance

Mission freelance Développeur Big Data - Spark - Python - Hadoop

Celexio
Publiée le
Ansible
Apache Spark
Docker

2 ans
430-470 €
Paris, France
Nous sommes à la recherche d’un développeur Big Data pour l’un de nos clients dans le secteur de l’énergie. Vous interviendrez sur un projet de migration d’infrastructure vers des distributions Hadoop open source (TDP). Vous travaillerez au développement logiciel pour l’ingestion de données. Votre rôle dans cette mission consistera au: - Développement de scripts d’ingestion de données dans le Datalake - Déploiement du code d’installation des machines et automatisation via Ansible - Administration de l’infrastructure BDP (Big Data Platform) des clusters - MCO du cluster Datalake - Déploiement des noeuds configurés des clusters BDP à l’aide d’outils DevOps - Conteneuriser les applications avec Docker et Docker-compose - Maintenir la qualité de code Pour information l’environnement technique est le suivant : Python v3.6, Spark v3, Docker, Ansible, Git, Nexus, Jenkins, Sonar. Stockage Big Data basé sur la Trunk Data Platform : Hive / tez, HDFS, Hue / Hue Notebook, Yarn / Spark 3, Zookeeper, Ranger, Knox / Livy. C’est une mission pour un démarrage ASAP à Paris, en remote partiel (2-3j /semaine), avec une longue visibilité (+2ans).
Freelance
CDI

Offre d'emploi Tech lead Expert Middleware

ARDEMIS PARTNERS
Publiée le
Apache Kafka
Apache Tomcat
API

6 mois
56k-60k €
Paris, France
Pour ce poste, vous aurez en charge : Maintien en Condition Opérationnel – Niveau 2/3 : Assurer le suivi de la performance d’une plate-forme qui est au cœur des échanges de données entre les applications. Assurer le suivi des tickets et demandes de support « ouverts » chez les éditeurs Elaboration et suivi la RoadMAP technique : Suivi des nouvelles version et Patch éditeurs, qualifications des versions et installation Suivi et gestion de la capacité des briques MDW Être en support des intégrateurs des applications dans la résolution des incidents afin de les rendre le plus autonome possible Evolutions des normes et standards Maintenir la documentation à jour (procédures, modes opératoires) Optimisation et Evolutions : Faire évoluer les normes, les bonnes pratiques et les communiquer Automatiser (ansible) les installations des nouvelles briques techniques et les tâches d’administration courantes Être force de proposition Projets : Être acteur dès le démarrage des projets (réflexion à l’architecture, sécurité, etc) Réaliser les actions de BUILD : installation, configuration, paramétrage des couches Middleware Réaliser les tests de performances et non régression au niveau du socle Middleware Apporter l’expertise aux projets Être en support des intégrateurs des applications dans les actions de Build afin de les rendre le plus autonome possible Communication, Reporting et travail en équipe : Synthèse et communication auprès du management et Incidents Manager sur les incidents et anomalies traitées/en cours Suivi des tâches (Incidents, Problem, demandes, Kanban) et reporting clair sur l’avancement/le reste à faire
CDI

Offre d'emploi Consultant JAVA / BIG DATA - Banque/Finance (H/F)

SOFTEAM
Publiée le
Apache Spark
Big Data
Hadoop

55k-80k €
Île-de-France, France
SOFTEAM recherche son(sa) prochain(e) consultant(e) Ingénieur(e) JAVA / BIG DATA (Hadoop, Spark, Scala) pour intervenir chez nos clients Grands Comptes du secteur de la banque/finance (banque de détail, banque d'investissement/CIB, trade finance, asset management, front office, middle office, back office). VOTRE MISSION Chez un client grand compte, vos missions seront : Gestion de bases de données massives. Collecte, nettoyage, prétraitement et analyse des données. Sélectionner ou isoler les informations importantes en fonction du cahier des charges prévu. Concevoir une architecture technique. Mise en place de solutions de stockage de données. Conception et développement de systèmes de traitement de données. Maintenance et surveillance des systèmes. Optimisation des performances. Sécurité des données. S’assurer de la qualité des données. Réaliser des rapports détaillés.
CDI
Freelance

Offre d'emploi Architecte Big DATA/Cloud Azure

Inventiv IT
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
80k-90k €
Levallois-Perret, Île-de-France
Dans le cadre de son développement, Inventiv IT recrute un Architecte DATA avec une expérience de 8 ans au minimum. Le Poste est basé à Paris. Rythme de Travail Hybride Mise en place architectures de projets Big Data sur le Cloud Azure Cadrage et Chiffrage projets Big Data Définition des solutions d’architecture Big Data dans le cloud Azure répondant aux besoins et exigences client et aux bonnes pratiques et standards. Rédaction des Dossiers d’Architecture Logiciels (DAL) et Validation des Dossiers d’Architecture Technique (DAT) Garantir la cohérence technique et la pérennité du système d’information Participation à des instances de : Design Authority (Urba, Archi, Data Gouv), CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation Architecture du Product Incrément, Réunions de qualification/validation avec le RSSI (PrekaZen, Remédiations), Suivi de chantiers de résilience, suivi FinOps Participation à la définition/amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Migration des projets dans des nouvelles architectures : HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.21 Conception de solutions : monitoring de PaaS et synchronisation des données de Prod et Hprod. Veille et conseil aux équipes de conception Réunions/Design session : Microsoft, Databricks, Datadog, Dataglaxy Participation à la définition des infrastructures big data Conduite de projets d’infrastructures Suivi et amélioration des processus Contexte Agile (Scrum, Kanban, Agilité à l’échelle) Réalisation de POC et POT Accompagnement et conseil Encadrement des équipes fonctionnelles et techniques Évoluez sous méthodologie AGILE/SCRUM Environnement Technique indispensable : Spark , Azure Databricks, Azure Kubernetes Services , Event Hub , Azure DataLake Gen1/Gen2 , Azure Data Factory , PowerBI , PostgreSQL Harbor , Datadog Une certification Azure Solution Architect est un vrai +
Freelance

Mission freelance Développeur Java Angular : lutte contre la fraude

VISIAN
Publiée le
Angular
Apache Kafka
Apache Maven

1 an
100-520 €
Villejuif, Île-de-France
Deux consultants développeurs Fullstack sont recherchés et ils auront les missions suivantes : • Développement des fonctionnalités de traçabilité • Développement des tests unitaires et d’intégration • Revues de code • Déploiement dans les différents environnements • Fonctionnement en méthodologie agile Possibilité de participer aux réunions de la communauté des développeurs et Veille technologique encouragée. • Réaliser les développements/Programmes selon les normes et standards • Fournir les éléments permettant la production de l'application/DTA (Dossier Technique d'Application) • Définir la sécurité/Dossier sécurité
Freelance
CDI

Offre d'emploi Chef de projet intégration

TRSB
Publiée le
Apache Tomcat
Automatisation
Azure

2 ans
55k-60k €
Paris, France
Le responsable de l'intégration IT supervise l'intégration des systèmes et de l'infrastructure informatiques. Vous êtes chargé de procéder à une vérification préalable afin d'identifier les risques et les problèmes potentiels, d'élaborer des plans d'intégration et de gérer le processus d'implémentation. Les principales responsabilités d'un responsable de l'intégration des technologies de l'information sont les suivantes 1. Mener une due diligence : pour une analyse approfondie des systèmes et de l'infrastructure informatiques afin d'identifier les risques potentiels ou les problèmes pouvant survenir. 2. Élaborer des plans d'intégration : élaborer un plan complet d'intégration des systèmes et de l'infrastructure informatiques. Il s'agit notamment d'identifier les changements ou les mises à niveau nécessaires des systèmes et d'établir un calendrier de mise en œuvre. 3. Gérer le processus d'intégration : superviser la mise en œuvre du plan d'intégration, en veillant à ce que tous les systèmes soient correctement intégrés et fonctionnent comme prévu ...
CDI

Offre d'emploi Ingénieur Etudes et Développement Java/J2EE (H/F)

CTG
Publiée le
Apache Struts
Java
Linux

10k-50k €
Paris, France
Vous apporterez votre expertise technique dans la mise en œuvre de solutions innovantes chez nos clients grands comptes. Vos tâches seront les suivantes : · Développement des algorithmes pour l'anonymisation des données en utilisant Java. · Optimisation des performances des algorithmes existants pour garantir une anonymisation rapide et efficace des données sensibles. · Documentation des fonctionnalités développées et des algorithmes implémentés pour faciliter la compréhension et la maintenance du code par les membres de l'équipe. · Participation aux réunions d'équipe et aux sessions de brainstorming pour discuter des défis techniques et proposer des solutions innovantes. · Suivi des indicateurs de performance.
Freelance
CDI

Offre d'emploi Chef de projet technique Data

Digistrat consulting
Publiée le
Apache Kafka
Apache Spark
Java

3 ans
40k-60k €
Paris, France
💡 Contexte /Objectifs : La mission consiste à contribuer à/au-x- : La vision transversale de tous les projets et mise en place et suivi des road map techniques correspondantes Remontées en avance de phase, les alertes sur son périmètre. L'industrialisation des processus de développement et de delivery multi feature teams y compris la FT Devops et la FT prod La conception des solutions techniques La garantie de l'implémentation des cas d’usages métiers et la normalisation des données IT dans le Datalake L'analyse des impacts des nouveaux projets sur l'architecture technique du SI Support avec les Architectures Techniques dans les choix d'implémentation au sein du SI L'identification et la prévention des risques éventuels de dérapages en termes de coûts et de délais Maintien d'une expertise technique dans les environnements Data et Java La définition de la la stratégie d’onboarding Livrables attendus Road map projets techniques Documentation des solutions type HLD/document d'architectures
Freelance
CDI

Offre d'emploi INGENIEUR D'ETUDES GED F/H - ORLEANS (45)

HIGHTEAM GRAND SUD
Publiée le
Apache Tomcat
Eclipse
Git

1 an
10k-58k €
Orléans, Centre-Val de Loire
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Prendre en charge l’analyse des besoins et des impacts Prendre en charge l’analyse des anomalies et la mise en place des corrections Rédiger les Spécifications Techniques Détaillées Réaliser les développements Etablir les plans de tests unitaires et d’intégration Suivre et assister la recette dans les tests Préparer la mise en production (livrables, documentation, procédure de livraison…) Assurer le suivi post-production et la gestion des incidents. Le poste est localisé à Orléans (45). Dans le cadre de vos fonctions, une présence sur site est requise à 100%. Environnement technique : Java / J2EE, Spring, Javascript, Tomcat, Kubernetes, OCS, JBOSS, Oracle SQL, Postgre, Eclipse, Git ECM : OpenText Documentum (22.2), DQL, API, Documentum Administrator (DA), Composer
CDI

Offre d'emploi Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Architecture
Java

50k-60k €
Sophia Antipolis 2, Provence-Alpes-Côte d'Azur
Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer 😎 En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage ! Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.
Freelance

Mission freelance Développeur Java React Kafka

CAT-AMANIA
Publiée le
Apache Kafka
Java
React

1 an
450-550 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Développeur Java React Kafka. Dans le cadre du projet de développement des nouvelles offres du Client Ses principales missions seront de :  Participer aux analyses techniques et aux études d’impacts en amont des développements  Concevoir des solutions en respectant les bonnes pratiques de développements  Fournir des chiffrages détaillés des futures réalisations (dans le cadre de la méthode SCRUM)  Réaliser les développements  Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe  Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette  Assurer le support lors des mises en production de chacune des évolutions  Assurer le maintien en condition opérationnelle des applications du périmètre (effectuer les analyses sur incident en support des équipes d’exploitation, et réaliser les correctifs le cas échéant).  Développement Back-End en JAVA 11+  Développement Front-end React, HTML5, CSS3…  Les frameworks JAVA commun tels que Hibernate, et la suite Spring  Les modèles d’architectures Microservice (CQRS, Event driven, architecture Hexagonale)  Pratique de la sécurité des APIs (OAuth2)  Connaissance et pratique d’Apache Kafka, Kaftka Stream  Serveur d'application Tomcat et des technologies JEE  Utilisation quotidienne de l'IDE IntelliJ  Utilisation des outils de "CI" (Gitlab CI) et de contrôle de source (Bitbucket / Git)  Infra cloud (GCP, Kubernetes, Helm, ArgoCD).  Environnement UNIX et LINUX (Redhat), Script Shell, Bash, Python, Etc.  Techniques de conception (UML)  Les bases de données et la modélisation (SQL, PostgreSQL)  La méthodologie Agile SCRUM
Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !