Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Votre recherche renvoie 119 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance Data Analyst / Scientist

CHARLI GROUP
Publiée le
Apache Airflow
Hadoop
Machine Learning

3 ans
100-650 €
Île-de-France, France

Contexte de la mission La Direction DPPS (Produits et Plateformes de Services), en innovation continue, a pour rôle de concevoir, développer et déployer les nouveaux produits et service du fixe du futur. En tant que Data Analyst/Scientist, vous serez responsable de l’intégration, du traitement et de l’analyse des données pour aider à prendre des décisions éclairées, améliorer l'efficacité opérationnelle et la qualité de service chez nos clients. Objectifs et livrables Vos principales missions seront les suivantes : - Collecter, nettoyer, analyser, mettre en forme et interpréter des données provenant de diverses sources internes et externes. - Collaborer avec des équipes transverses pour identifier les indicateurs clés de performance (KPI) et les objectifs de l'entreprise. - Utiliser des outils d'analyse de données et des logiciels de visualisation (tels que Excel, Python, R, Tableau, Power BI) pour traiter et analyser des ensembles de données volumineux. - Développer et maintenir des rapports, des tableaux de bord et des visualisations de données pour faciliter le suivi des performances, leurs dérives et la prise de décision. - Identifier les tendances, les anomalies et les opportunités d'amélioration dans les données et leurs croisements. - Présenter les résultats de l'analyse aux parties prenantes et formuler des recommandations pour améliorer les opérations et les performances. - Contribuer à des projets d'analyse prédictive pour anticiper les tendances et les problèmes potentiels Pyspark - Airflow - ML - python - R - Power BI - Spark - HAdoop - SAS - Tableau

Freelance

Mission freelance Ingénieur Etudes et Développement Python Airflow H/F

CTG
Publiée le
Apache Airflow
Docker
Flask

3 ans
100-600 €
Paris, France

Les principales activités sont : · Conception et mise en œuvre de services en Python · Développement de processus automatisés en utilisant la technologie Airflow · Support Technique des applications et des outils développés · Automatisation des processus de build, de test et de déploiement (intégration continue) · Rédiger et compléter les spécifications techniques · Estimer la charge · Réaliser la solution technique et la documenter · Assurer le déploiement et les tests sur les environnements hors production · Assurer la préparation à la mise en production

Freelance
CDI

Offre d'emploi DEVELOPPEUR AUTOMATION H/F

AMAGO EXPERTISE
Publiée le
Apache Airflow
DevOps
Docker

12 mois
40k-54k €
Seine-Saint-Denis, France

Amago IT recherche pour l'un de ses clients grands comptes, basé dans le 93, dans le cadre d'une prestation de longue de durée un : Développeur automation H/F Contexte : refonte d’une chaîne d’automatisation devops et préparation à la mise en œuvre dans le cloud public. objectif : mise en oeuvre d'infrastructure micro services et évolutive pour supporter les nouvelles offres dans le cloud. Intégré(e) dans une équipe l'équipe cloud, il s'agira de travailler avec le product owner sur les phases de conception, développement et déploiement des produits.

Freelance

Mission freelance Développeur Java

Sapiens Group
Publiée le
Angular
Apache
Java

6 mois
100-500 €
Occitanie, France

Compétences Techniques et Produits : Socles techniques JAVA/J2EE: 1ère génération (G1) : Framework Java G1 (solutions n tiers Java / COBOL : framework Struts, struts layout, eclipse) -2ème génération (G2) : comportant Tapestry (Présentation Web), Spring (dév. java) Spring Batch, Hibernate – JBOSS EAP 4 et 7, Apache-3ème génération (SK8) : Socle RIA - brique d'architecture basée sur Kubernetes, Angular, Spring Boot-Dans une moindre mesure la connaissance du langage Shell Script est également nécessaire.-Expérience significative et maîtrise complète Java JEE.

CDI

Offre d'emploi Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

Freelance

Mission freelance POT7782-Un Expert Ordonnanceur Airflow sur Paris 12

Almatek
Publiée le
Apache Airflow

6 mois
100-380 €
Paris, France

Almatek recherche pour un de ses clients, Un Expert Ordonnanceur Airflow sur Paris 12 • Type d’intervention : interventions ponctuelles dans l’année (estimation à ajuster) • Nature des prestations : o Etat des lieux, prise en compte de l’existant, préconisations o Optimisation des flux existants o Assistance technique o Formation / Accompagnement Almatek recherche pour un de ses clients, Un Expert Ordonnanceur Airflow sur Paris 12 • Type d’intervention : interventions ponctuelles dans l’année (estimation à ajuster) • Nature des prestations : o Etat des lieux, prise en compte de l’existant, préconisations o Optimisation des flux existants o Assistance technique o Formation / Accompagnement

Freelance

Mission freelance Ingénieur Observabilité

KEONI CONSULTING
Publiée le
Apache
Cloud
Windows Server

12 mois
100-500 €
Mons-en-Barœul, Hauts-de-France

CONTEXTE le service observabilité est une entité transverse de la DSID. Sa mission est de définir et de mettre en œuvre les solutions de supervision techniques, applicatives et fonctionnelles. Dans le cadre du déploiement des outils de supervision et du programme de plateformisation, le Groupe a besoin de renforcer la capacité du produit observabilité à déployer de nouvelles solutions. MISSIONS Dans un contexte d’équipe agile (Product Owner, Scrum Master), le candidat sera membre de la Dev team et devra posséder des compétences de développement (Scripting) et des connaissances du domaine de l’observabilité (supervision technique, applicative, APM, supervision fonctionnelle). Il sera principalement demandé au candidat de : · Mettre en œuvre la plateforme grafana cloud dans le contexte d’une plateforme groupe · Expérimentation d’opentelemetry (suivi de transaction métier) · Mise en œuvre des processus métiers du projet Booster Livrables attendus · Plateforme Grafana opérationnelle, · Procédures associées à la gestion de la plateforme dans un contexte groupe (gestion des accès, librairie de rapports, …) · Supervision fonctionnelle des processus métiers d’un projet d’envergure (périmètre épargne individuel)

Freelance

Mission freelance INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

CDI

Offre d'emploi Data Engineer Azure Snowflake Confirmé/Senior

Inventiv IT
Publiée le
Apache Airflow
Azure
Snowflake

48k-72k €
Paris, France

Dans le cadre de son développement, Inventiv IT recrute un Data Engineer Snowflake/Azure avec une expérience de 4 ans au minimum. Le Poste est basé à Paris. Rythme de Travail Hybride Apporter une expertise en Big Data permettant la manipulation de données Concevoir et conseiller les solutions permettant de traiter des volumes importants de données Mettre en place des bases de données et des pipelines Assurer la sécurité des traitement et leurs bon fonctionnement Développer en équipe, savoir recetter des traitements, les mettre en production et les maintenir Documenter son travail et savoir transférer son savoir Environnement technique indispensable : Azure, Snowflake, synapse, sql, airflow Répartition des missions : 30 % d’expertise Big Data 30 % de Conception de plateforme : conception et développement 30 % de mise en place : mise en place des bases de données, mise en production, sécurisation et suivi des traitements 10 % de projet : Recette - point projet - Documentation Vos Qualités : Force de proposition tout en respectant les règles imposés Esprit Analytique et de Synthèse Esprit d’équipe Sens de l’organisation

Freelance

Mission freelance DevOps Java - Lyon

Cherry Pick
Publiée le
Ansible
Apache Kafka
Java

24 mois
450-520 €
Lyon, Auvergne-Rhône-Alpes

Au sein d'une équipe technique composé de développeur et de devops, vous assurez le déploiement d’applications, la réalisation de phases de test, réalisées en amont du développement et la mise en place d’une surveillance de la qualité de la production. Améliorer et maintenir l'outillage de déploiement et de provisionning de l'infrastructure. Activité principale : Participation à l’amélioration continue de l’infrastructure Maintenance et évolution de jobs Jenkins et CI/CD Livraison en recette, production Amélioration des métriques applicatives et des dashboards en place (Grafana) Amélioration et exécution des tirs / scénario de performance Maintenance et amélioration de l’Infrastructure-as-code Montée de version et gestion de obsolescence de certaines briques techniques Communication avec les équipes de développement et avec l’exploitant Activité secondaire : Rédaction et maintien des documentations techniques Mise en œuvre des méthodes de modélisation des données et des traitements Animation de réunions Stack technique du projet : ElasticSearch, Cassandra, Ansible, Jenkins, JGiven, Terraform, Kafka, Springboot, Spring, Java, Angular Process : 1 entretien Go - No Go

Freelance
CDI

Offre d'emploi DATA ENGINEER - SPARK / SCALA F/H - STRASBOURG (67)

HIGHTEAM GRAND SUD
Publiée le
Apache Spark
Scala

3 ans
10k-53k €
Strasbourg, Grand Est

VOTRE QUOTIDIEN RESSEMBLERA A… Dans le cadre de la mise en oeuvre de son Datalake, vous rejoignez notre client (spécialisé dans le domaine de la finance) en qualité de Data Engineer / Développeur Spark Scala F/H. Vous serez en charge de la reprise des tableaux de bord existants, programmés en SAS afin de mener à bien le projet. Environnement technique : Spark, Scala Le poste est localisé à Strasbourg (67). Dans le cadre de cette mission, vous pourrez bénéficier de 2 à 3 jours de télétravail par semaine.

Freelance
CDI

Offre d'emploi Développeur et MCO

CHARLI GROUP
Publiée le
Apache Maven
Apache Tomcat
API REST

3 ans
10k-48k €
Île-de-France, France

OBJET DE LA MISSION : La mission consiste à assurer le rôle de développeur ainsi que la MCO pour la nouvelle équipe Logistique FR en cours de constitution au sein du domaine Contract. L’objectif de cette équipe est de reprendre la maîtrise fonctionnelle et technique sur le périmètre jusqu’ici pris en charge par une société en TMA, afin d’assurer le run et servir les projets stratégiques DCE CRM France dans le cadre de la roadmap métier France. Puis dans un second temps de participer à la mise en place d’une nouvelle solution modernisée et mutualisée avec les besoins de l’international. Le produit Logistique concerne : - La gestion des matériels qu’ils soient propriété du group ou non sur l’ensemble de leur cycle de vie : de l’intégration des matériels dans le système jusqu’à leur destruction, en passant par les périodes de transit (entrepôt, livraison, installation, restitution, etc.) et d’affectation aux abonnés . - Le réapprovisionnement et le suivi des stocks - La mise à disposition d’outils permettant les interactions avec nos partenaires afin d’assurer la prise en charge et le suivi de nos matériels (prise de rendez-vous avec les installateurs, finalisation des commandes d’installation/livraison, etc.) - Le paramétrage inhérent à la gestion des matériels et à leur cycle de vie dans le système - Le périmètre du produit concerne les besoins Métropole Par ailleurs, dans le cadre de la transformation des systèmes d’informations qui gèrent les abonnés pour la France et pour les filiales internationales du Groupe, un chantier a été lancé pour la modernisation de nos applications. Le travail est organisé suivant des sprints de 2 semaines et l’équipe sera constituée d’un PO et de deux développeurs. Au sein de la feature team en charge du produit Logistique, le développeur devra notamment : · Analyser les besoins exprimés par le Product Owner · Développer les évolutions demandées (développement, tests unitaires, tests d’intégration) · Gérer l’exploitation de la production et le plan batch en collaboration avec l’équipe MCO · Analyser et qualifier les remontées/anomalies de production · Faire valider ses développements par d’autres développeurs au travers de revues de code, et réaliser des revues · Analyser et corriger les anomalies et bugs remontés par les équipes de validation et par les équipes d’exploitation · Contribuer à améliorer l’exploitabilité des applications développées par la feature team · Participer aux cérémonies agiles de l’équipe (DSM, Sprint planning, rétrospectives, …), et contribuer à son amélioration continue · Faire du reverse engineering sur le code legacy (PL/SQL et java)

Freelance
CDI

Offre d'emploi INGENIEUR DE PRODUCTION - DEVOPS

HEEVOX
Publiée le
Ansible
Apache Tomcat
Control-M

3 ans
10k-60k €
Île-de-France, France

INGENIEUR DE PRODUCTION - DEVOPS Démarrage : ASAP Durée : 3 Ans Localisation : Ile de France (Proche Paris - Facile d'accés en Transport en commun) Télétravail : 50% Contexte : L' équipe a pour mission de fournir un support technique vis-à-vis des métiers pour les services applicatifs autour du progiciel Sophis et d’un environnement de plusieurs grilles de calculs. Cette équipe gère également les évolutions des applications en qualification et production . Le travail autour des environnements du trading Equities et Commodities est particulièrement sensible et critique. La mission proposée est soumise aux horaires décalés et à une participation au dispositif d'astreintes. Mission : - Assurer le suivi et la haute disponibilité des applications, leur sécurisation, leur normalisation, leur automatisation, leur industrialisation. - Support des applications métiers Equities et Commodities. - Contexte international: Activité Front-to-Back, booking, calculs P&L, risk Suivi et maintien en conditions opérationnelles des applications du périmètre - Développer une vision fonctionnelle du Système d'Information des métiers Equities et Commodities, avoir une vision globale de la cartographie applicative. - Analyses et diagnostics avancés des incidents techniques - Assurer un reporting au métier et au management - Gérer les calculs et des fermes de calculs hétérogènes (milliers de cores windows/linux) - Intégrer les application du pérerimètre dans les outils Devops (cloud interne ou externe, jenkins; - Gérer les migrations techniques, obsolescence ou vulnérabilités (upgrade hardware, OS, middleware ou base de données) - La mission proposée est soumise aux horaires décalés et à une participation au dispositif d'astreintes.

Freelance
CDI

Offre d'emploi RELEASE MANAGER F/H

HIGHTEAM GRAND SUD
Publiée le
Apache Maven
Git
Jenkins

1 an
10k-65k €
Nice, Provence-Alpes-Côte d'Azur

VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et, en qualité de Release Manager F/H, vous serez en charge de : Piloter un programme de grande ampleur avec une quinzaine de briques applicatives Superviser les étapes de la planification et de la gestion des versions, du développement et des tests jusqu'au déploiement. Environnement technique : Git, Maven, Jenkins Le poste est à pourvoir dans les Alpes-Maritimes (06). Dans le cadre de vos fonctions, vous pourrez être en full remote si vous le souhaitez.

Freelance
CDI

Offre d'emploi Ingénieur Middleware/MQSeries

ITS GROUP
Publiée le
AIX (Advanced Interactive eXecutive)
Ansible
Apache Tomcat

3 mois
45k-55k €
Montpellier, Occitanie

Vous serez amené à participer aux projets d`évolution des infrastructures Middleware et/ou MQSeries de nos clients grands comptes : conseil, ingénierie, expertise, support. Contribution aux projets d’infrastructures de la solution et des socles Middleware Concevoir l'architecture technique permettant l'intégration des projets techniques et fonctionnels Conduire les changements en production sur les Middleware dans le cadre projet et d'actions de fiabilisation Définir les normes et standards d'utilisation et d'exploitation Rédiger de la documentation technique Automatiser les livrables et superviser leurs bons déploiements Support N3+ en interaction avec les éditeurs Piloter la gestion des incidents graves

CDI
Freelance

Offre d'emploi Développeur Big Data (F/H)

NOSCO
Publiée le
Ansible
Apache Hive
Apache Maven

6 mois
10k-45k €
Lyon, Auvergne-Rhône-Alpes

Missions : o Apporter une expertise en Big Data pour faciliter la manipulation des données o Définir les solutions techniques permettant le traitement massif de données o Mettre en place des solutions de stockage de données (SQL, NoSQL, etc.) o Veiller la sécurisation et la clarté des pipelines de données pour faciliter l’analyse et la transformation Il s’appuie si nécessaire sur les référents techniques des diverses briques si ces dernières sortent du cadre de sa mission. Il met en avant ses qualités pour mener à bien ses missions : o Autonomie, rigueur et force de proposition o Capacités d'analyse et de synthèse. o Esprit d’équipe Activité principale : o Assure la création, la maintenance, l'optimisation et la sécurité des bases de données o Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier o Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier Activité secondaire : o Veille technologique sur les outils utilisés au sein du projet o Partage et formation sur les guides de bonnes conduites

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !