Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 69 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI
CDD

Offre d'emploi
Un(e) Développeur Fullstack Scala Angular - Luxembourg

EXMC
Publiée le
AngularJS
Apache Kafka
API REST

6 mois
40k-65k €
Luxembourg

Développeur Fullstack Scala Angular Description des tâches Les équipes sont organisées par domaine métier. Vous intégrerez le domaine Contrat Marché belge à plein temps où vous aurez la charge de : · Travailler dans un environnement agile · Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala · Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables · D’adhérer aux principes d’améliorations continues et de modernisation du domaine · De devenir un expert dans certaines parties du domaine applicatif avec une mission longue Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes du côté métier. Compétences souhaitées · [FRONT] Vous avez une bonne expérience dans la conception d'architecture basée sur des composants utilisant Angular. React ou Vue.js sont également accepté · [FRONT] Vous maîtrisez HTML / CSS / JS · [FRONT] Vous êtes en mesure de consommer des APIs REST · [FRONT] Vous savez intégrer des maquettes réalisées par des designers (dans Figma) · [BACK] Vous maîtrisez la programmation Objet (Java 8, ...), · [BACK] La maîtrise de la programmation fonctionnelle (Scala, ...) est un réel atout · [BACK] Vous avez de l'expérience avec les DB relationnelles (Db2) · [BACK] La connaissance en DB non relationnelles (MongoDB) est un réel atout · [BACK] La connaissance de la programmation événementielle (event sourcing) avec KAFKA est un réel atout. · [BACK] Vous avez des connaissances dans la conception d’APIs REST · Vous êtes capable de faire monter en compétence vos pairs au travers de code-review, pair programming, … · Vous maîtrisez l’entièreté d’une chaine de développement, et avez la capacité de pousser et de justifier des choix d’architecture · Vous utilisez des outils de déploiement continu (K8s, Jenkins, …) et de monitoring (Instana et Sentry) · Vous savez collaborer avec des développeurs d’autres équipes afin d’améliorer les systèmes et les processus dans un environnement organisé par domaines · Vous êtes proactif, appréciez le travail en équipe et désireux d’apprendre · Vous êtes familier avec un outil de versionning de code tel que Git · Vous êtes en mesure de venir sur site à Leudelange (à raison d'au moins 3 jours par semaine) En plus: · Expérience avec des frameworks de tests unitaires · Utilisation du standard JSON-API

Freelance

Mission freelance
Data Engineer

MOBILE TECH PEOPLE
Publiée le
Azure
PySpark
Python

12 mois
100-410 €
Hauts-de-France, France

Nous recherchons pour le compte d'un de nos clients un Data Engineer en gestion de données Azure, souhaitant contribuer à des projets innovants dans un environnement dynamique et en constante évolution. Vous aurez l'occasion de travailler sur des tâches variées allant de la gestion de base de données SQL sur Azure à l'automatisation des pipelines ETL et au développement de scripts Python pour le web scraping. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Freelance
CDI

Offre d'emploi
Développeur JAVA / BIG DATA

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Java

3 ans
40k-60k €
Paris, France

Le client a lancé un programme de mise en place d'un nouveau dispositif de management de la liquidité permettant de satisfaire les nouvelles contraintes réglementaires et de répondre aux besoins internes de pilotage. Un des projets SI en support de ce programme a pour objectif la mise en place d'une base de synthèse transversale au Groupe, contenant les indicateurs de pilotage et assurant des restitutions sous diverses formes. Le Bénéficiaire souhaite mettre en œuvre les cadrages/développements/les tests unitaires/l'homologation technique sur des composants applicatifs dans les plannings et délais demandés. Les technologies utilisées seront Java J2EE/PL-SQL/Spark/Nifi/Oozie/Openshift. Ces actions doivent être effectuées dans le cadre des normes du projet. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place d'une Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. Etre effectuée dans le cadre des normes du projet. - assistance sur les développements produits jusqu'à la mise en production. - Support de production

Freelance
CDI

Offre d'emploi
Data Engineer AWS

4 Impact
Publiée le
Apache Spark
AWS Cloud
Scala

12 mois
39k-50k €
Hauts-de-Seine, France

Nous recherchons pour l’un de nos clients un Data Engineer AWS. Contexte de la mission : Au sein de l'équipe chargée de développer des outils internes d’une entité, constituée de 10 personnes : Développeurs back/frond end et Ingénieurs Data, le Data Engineer AWS est en charge de mener à bien un besoin clé du Groupe autour du sujet Zéro Carbone. Affecté à l'équipe métier, nous travaillons en mode Scrum en collaboration avec un autre Data Engineer et un PO pour réaliser les tâches et mener à bien le projet à terme. Missions : - Créer des fonctions AWS Lambda et pour consommer des APIs provenant de l'extérieur (données Gas/Power) et alimenter nos buckets S3 dédiés. - Développer des jobs AWS Batch pour alimenter nos buckets S3 avec des données pré-calculées de l'intensité Carbon du Groupe et de ses clients. - Mettre en place des dashboards sur Quicksight pour visualiser les résultats. - Développer une API Flask et exposer les calculs via Swagger. - Exploration des données via AWS Athena. - Mise en place de Jupyter Notebooks pour exposer et valider nos premiers résultats de calculs aux métiers. - Scheduler des jobs via CloudWatch et StepFunctions. - Archiver l'ensemble du code dans Git et mettre en place un déploiement automatique via Azure Devops - Mise en place de WebApps sur Azure pour héberger nos API Flask. - Collaborer avec nos clients pour présenter nos calculs et les accompagner. Environnement technique : Spark, Python, Jupyter/ Pytest, Flask, Swagger, AWS Lambda/ Athena/ CloudWatch/ QuickSight/ Batch / S3/ Partionning/ Bucketing, Azure Devops/ Functions/ AppService/ Web Apps.

CDI
CDD

Offre d'emploi
Administrateur Windows Devops

Exigences IT
Publiée le
AWS Cloud
Azure
Cloud

1 an
10k-200k €
Orléans, Centre-Val de Loire

PLATEFORME : Cloud privé SG (accès restreint) COMPETENCES RECERCHEES: Connaissance Technologies VMWare (Interne SG) Connaissance des systèmes d'exploitation Windows et UNIX Connaissance installation / Maintenance des Services Windows Connaissance de l'Administration Windows Connaissance LDAP Connaissance du langage de programmation Powershell Connaissance de différents langages de programmation et de script (Java, Python, Ruby, JavaScript, Scala, etc.) Connaissance de différents bases de données Principes de réseau et protocole TCP/IP (ouverture de route, etc...) Connaissance d'Azure Devops (Chaîne CI/CD), du Cloud Public (Azure, AWS, GCP) et de l'Observabilité (Elastic Stack) Connaissance Technologie Automatisation OBJECTIFS : Automatisation de Virtualisation des creations/installation de VDI Automatisation de Virtualisation des creations/installation de Serveurs

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

Freelance
CDI

Offre d'emploi
Tech Lead Développement Big Data

Digistrat consulting
Publiée le
Apache Spark
Github
Scala

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Tech Lead Big Data. Périmètre fonctionnel : banque d'investissement Les principales tâches de la missions sont les suivantes :  Développement, Clean code,  L'intégration continue,  La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing)  Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données  L'assistance à la conception technique du produit  Diverses assistances techniques (sujets techniques complexes sur le produit, etc...)  La revue de code  L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique  L'analyse de l'impact de la conception du produit sur l'architecture technique du SI  L'architecture technique aux choix d'implémentation dans le SI  La maintenabilité technique du produit  La stratégie de développement et de tests selon critères pré-définis Autres :  Support applicatif via le monitoring et résolution associée  DevOps pour les parties IAAS et CD.  Environnement anglophone

CDD
Freelance
CDI

Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F

SMARTPOINT
Publiée le
Apache Spark
Scala
Talend

3 ans
10k-55k €
Paris, France

La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets

Freelance

Mission freelance
Coach Lean & Agile

EXTEND BY COEXYA
Publiée le
Lean

6 mois
100-600 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

L’objectif prioritaire court-terme sera la formation et le coaching des équipes et des trains (SM et RTE en premier lieu, puis PO et PM). Les activités : Formation aux pratiques et outils Accompagnement de lancement de nouvelles équipes ou trains, Coaching de la maitrise des pratiques L&A : Exécution à l’échelle (évènement : Scrum of Scrums et au System Demo, I&A, etc.), Pipeline DevOps, maitrise du flux (Kanban et métriques), Product management, Customer centricity, Design thinking, Etc. Certification : Scrum et SPC SAFe exigée , Green Belt Lean.

CDI
Freelance

Offre d'emploi
Data Engineer

Ipepper Groupe
Publiée le
Microsoft Power BI
Nosql
Python

12 mois
42k-55k €
Valbonne, Provence-Alpes-Côte d'Azur

iPepper recrute pour l'un de ses clients une PME éditeur de logiciel dans le domaine du voyage, un Data Engineer (H/F) passionné(e) et expérimenté(e) pour rejoindre une équipe dynamique. En tant qu'Ingénieur(e) Data, vous serez en charge d'extraire et de transformer des données, de construire et d'optimiser des pipelines de données, ainsi que de concevoir des visualisations de données intuitives et informatives. Responsabilités : Concevoir, construire et maintenir des pipelines de données évolutifs et efficaces pour transférer des données entre des bases de données SQL et NoSQL. Développer et mettre en œuvre des processus ETL pour extraire, transformer et charger des données à partir de différentes sources dans notre entrepôt de données. Collaborer avec des équipes pluridisciplinaires pour comprendre les besoins en données et garantir la fourniture réussie de solutions de données. Optimiser et ajuster les pipelines de données existants pour la performance et la fiabilité. Concevoir et développer des visualisations de données et des tableaux de bord pour fournir des insights exploitables aux parties prenantes. Surveiller et résoudre les problèmes de pipelines de données, en veillant à la qualité et à l'intégrité des données.

Freelance

Mission freelance
développeur pyspark spark - 550€ max

Innov and Co
Publiée le
Apache Spark
PySpark
Python

12 mois
100-550 €
Boulogne-Billancourt, Île-de-France

Dans le cadre de la mise en place du projet Data Finance nous recherchons un data engineer confirmé. - Contexte : le projet Data Finance à pour objectif de mettre a disposition des données consolidé de différente source (base de données relationnelle, SAP , base de données Iaas) dans un modèle de donnée modélisé en Etoile a des fins d'analyse financier. - Environnement technique : Azure DataFactory, Databricks, Pyspark, SQL , Azure devops, Blob Storage. - Mission du candidat : Développer des pipeline d'ingestion des données dans le datalake avec datafctory Développer des flux de transformation de données via Python/spark/ Pyspark Databricks. Mettre en place des pipeline CICD azure devops Participé au re factoring du code existant Être garant de la qualité du code et le bon respect des norme de développement Mis en place des test unitaire. Mise en place du monitoring et de la supervision de l'application datafinance .

Freelance

Mission freelance
Senior Data scientist

Cherry Pick
Publiée le
Apache Spark
Pandas
Python

24 mois
500-590 €
Paris, France

Missions : Analyser de grands ensembles de données pour identifier les motifs, tendances et insights pertinents pour le département respectif de la chaîne d'approvisionnement. Développer des modèles prédictifs et des algorithmes d'apprentissage automatique pour optimiser les processus liés à la logistique et le transport. Développer des stratégies d'optimisation pour tirer parti des différents insights et fournir des recommandations éclairées à l'entreprise. Collaborer avec des équipes pluridisciplinaires comprenant la direction de la chaîne d'approvisionnement, l'ingénierie et le développement de produits pour aligner les efforts de données et d'IA avec les objectifs commerciaux. Concevoir et mettre en œuvre des outils de surveillance des modèles pour suivre les performances des modèles et mesurer l'efficacité des stratégies de chaîne d'approvisionnement. Évaluer continuellement et améliorer les modèles et méthodologies existants pour améliorer la précision et l'efficacité. Communiquer les résultats et les recommandations aux parties prenantes grâce à des présentations et des rapports clairs et concis. Rester informé des tendances de l'industrie et des technologies émergentes en science des données et gestion de la chaîne d'approvisionnement. Compétence : Maîtrise de l'analyse statistique, des techniques d'apprentissage automatique et des algorithmes d'optimisation. Maîtrise des systèmes de base de données et des langages de requête (par exemple, SQL) pour l'extraction et la manipulation de données Expérience avec des langages de programmation tels que Python, Spark, TensorFlow et PyTorch pour l'analyse et la modélisation de données. Expérience avec des bibliothèques de manipulation et de visualisation de données telles que pandas, NumPy, Matplotlib ou ggplot2.

Freelance

Mission freelance
DevOps (H/F)

CTG
Publiée le
Apache Spark
Jenkins
Kubernetes

3 ans
100-600 €
Paris, France

En tant que DevOps vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vos activités principales seront : Conception, mise en place (scripts versionnés dans GIT, paramétrage, TDD et tests d'intégration) et livraison en production des applications dans les règles de l'art - Contribution aux Agile de l'entité dans le respect du framework Scrum (Daily meeting, Review, Rétrospective, Sprint Planning), - Maintien de la documentation technique et fonctionnelle - L'amélioration continue des processus et bonnes pratiques de développement (au sein de l'entité, mais aussi des entités du Socle BigData) - Support de production

CDI
Freelance

Offre d'emploi
Ingénieur Big Data - DevOps (H/F)

VISIAN
Publiée le
Apache Kafka
Apache Spark
Docker

3 mois
40k-65k €
Marseille, Provence-Alpes-Côte d'Azur

Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Data Engineer - Développeur JAVA / DevOps

OMICRONE
Publiée le
Apache Spark
CI/CD
Dataiku

1 an
10k-60k €
Île-de-France, France

Chers consultants, Nous sommes à la recherche d'un Ingénieur Data - Développeur JAVA / DevOps Senior pour rejoindre notre client, une banque leader à Paris. Missions La prestation aura lieu au sein de la banque exerce une responsabilité mondiale sur le Système d’Information contribuant à la réalisation des objectifs des métiers de la banque Commerciale, du Financement et du Trade. Dans ce contexte, la prestation Data Engineer (Développeur Java/DevOps) aura pour objectifs : • Comprendre les besoins clients dans le but de définir les solutions les plus adaptées • Assurer le développement des nouvelles fonctionnalités liées l’intégration, l’exposition et l’exploitation des Données • Définir et organiser les contrôles nécessaires à la mise en qualité de ces Données • Développer en Java/Spark/ des traitements de transformation et de production de données • Développement d’un moteur de règles • Être garant de la qualité du produit sur les aspects code, documentation, testabilité et performance • Designer des chaines optimisées CI/CD en collaboration avec les équipes DEVOPS • Participer à l'amélioration continue et à la revue de code

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous