Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 267 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur Java Finance H/F

SERYCE
Publiée le
Scala
Springboot

12 mois
400-520 €
Paris, France

Nous recrutons un(e) Développeur(se) Backend Java pour accompagner l'un de nos clients dans le secteur de la finance. L’analyse des besoins métiers, Le développement des fonctionnalités autour des technologies Java, L'amélioration continue (technique, organisation et processus), La mise en production, L’exécution des tests unitaires, Le traitement et suivi des anomalies, La rédaction de documentation technique. Compétences Backend : Java, Spring/ Spring Boot Connaissances fonctionnelles sur la finance de marché Un + : Scala/Spark

CDI

Offre d'emploi
Développeur Java Finance H/F

SERYCE
Publiée le
Scala
Springboot

40k-50k €
Paris, France

Nous recrutons un(e) Développeur(se) Backend Java pour accompagner l'un de nos clients dans le secteur de la finance. L’analyse des besoins métiers, Le développement des fonctionnalités autour des technologies Java, L'amélioration continue (technique, organisation et processus), La mise en production, L’exécution des tests unitaires, Le traitement et suivi des anomalies, La rédaction de documentation technique. Compétences Backend : Java, Spring/ Spring Boot Connaissances fonctionnelles sur la finance de marché Un + : Scala/Spark

Freelance

Mission freelance
Data Engineer Databricks / Python

VISIAN
Publiée le
Databricks
Informatica
Python

1 an
100-550 €
Paris, France

Data Engineer confirmé ayant une expérience de 3 à 5 ans sur des projets de tranformation de données dans un environnement cloud. Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée

Freelance

Mission freelance
Data Architect Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
Python

1 an
100-600 €
Paris, France

Responsabilités: 1- Mise en place de la gestion de code avec Git (CI/CD): Développer et maintenir les pipelines CI/CD pour assurer le déploiement continu des développements Databricks. Collaborer avec les équipes de développement (reporting power bi et data science) pour intégrer les meilleures pratiques de gestion de code. 2-Définition et mise en place des bonnes pratiques en termes d'architecture: Concevoir et mettre en œuvre des architectures de données efficaces et évolutives sur la plateforme Databricks. Élaborer des normes et des directives pour garantir la cohérence et la qualité des solutions. 3-Coordination avec l'éditeur et les équipes du group One Data Team: Être le point de contact principal avec l'éditeur Databricks pour résoudre les problèmes techniques et obtenir un soutien. Collaborer avec les équipes internes pour comprendre les exigences métier et traduire celles-ci en solutions techniques efficaces. 4-Accompagnement de l'équipe dans la montée en compétence sur Databricks: Former et encadrer les membres de l'équipe sur l'utilisation optimale de Databricks, y compris les fonctionnalités avancées. Fournir un support technique et des conseils pour résoudre les défis rencontrés lors du développement et de la mise en production.

Freelance
CDI

Offre d'emploi
Développeur Back Java

CHARLI GROUP
Publiée le
Apache Kafka
AWS Cloud
Cassandra

3 ans
10k-54k €
Île-de-France, France

Nous recherchons un développeur backend Java pour rejoindre l’équipe dans le cadre du développement de la plateforme. Nos projets : En tant que Développeur Backend, il intègrera une équipe pluridisciplinaire composée de développeurs (Scala, Java), de Devops, de Scrum master, et de Product Owners qui travaillent en méthodologie Agile : o Nos défis : Fournir des plateformes de services ultra performantes, scalables et elastiques à nos applications front de Live, Catchup, SVOD et TVOD, s’adapter aux besoins de nos clients afin de donner vie à la nouvelle expérience . Supporter le 25000 req/s et des millions de consommations par jour. Méthode de travail : Agile / Scrum, intégration et déploiements continus, Code Review o Environnement technique : Java 21, SpringBoot , Kafka, AWS, Cassandra, Redis, Elasticsearch, Datadog, Scala, Play. La mission : · Renforcement de l’équipe de développement dans le cadre du projet. · Intégrer une équipe de développeurs jeunes, soudés, dynamiques et très expérimenté qui réalisent les APIs de services afin de fournir, demain, les nouvelles fonctions à nos fronts. · Nous écrivons du Java moderne basé sur de la programmation fonctionnelle et les dernières feature du langage. · Participer aux différentes phases de développement et de tests (unitaires, fonctionnels, intégration, tests de montée en charge) · Mettre en production ses développements en fin de sprint · Faire des applications observables et facilement administrable en production. · Créer et maintenir la documentation technique

Freelance

Mission freelance
Architecte Databricks

VISIAN
Publiée le
Architecture
Databricks

1 an
550-670 €
La Défense, Île-de-France

Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Architecte Databricks. Contexte : Notre client fait évoluer sa plate forme Data. Ils cherchent un ou une expert avancée dans l'utilisation de Databricks pour le traitement et l'analyse de données à grande échelle. Solide compréhension des principes de l'ingénierie des données, de la modélisation des données et de l'optimisation des requêtes. Maîtrise des outils de gestion de code comme Git et des pratiques de CI/CD. Excellentes compétences en communication pour travailler efficacement avec les équipes internes et externes. Capacité à former et à encadrer les membres de l'équipe pour améliorer leurs compétences sur Databricks. Responsabilités: 1- Mise en place de la gestion de code avec Git (CI/CD): Développer et maintenir les pipelines CI/CD pour assurer le déploiement continu des développements Databricks. Collaborer avec les équipes de développement (reporting power bi et data science) pour intégrer les meilleures pratiques de gestion de code. 2-Définition et mise en place des bonnes pratiques en termes d'architecture: Concevoir et mettre en œuvre des architectures de données efficaces et évolutives sur la plateforme Databricks. Élaborer des normes et des directives pour garantir la cohérence et la qualité des solutions. 3-Coordination avec l'éditeur et les équipes du group One Data Team: Être le point de contact principal avec l'éditeur Databricks pour résoudre les problèmes techniques et obtenir un soutien. Collaborer avec les équipes internes pour comprendre les exigences métier et traduire celles-ci en solutions techniques efficaces. 4-Accompagnement de l'équipe dans la montée en compétence sur Databricks: Former et encadrer les membres de l'équipe sur l'utilisation optimale de Databricks, y compris les fonctionnalités avancées. Fournir un support technique et des conseils pour résoudre les défis rencontrés lors du développement et de la mise en production. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine

Freelance
CDI

Offre d'emploi
Développeur Back

CHARLI GROUP
Publiée le
Haskell
Java
Microservices

3 ans
10k-53k €
Île-de-France, France

Dans le cadre de sa transformation d’une chaine de télévision linéaire payante française en un groupe Media International, a lancé un chantier ambitieux de développement d’une nouvelle plateforme de gestion des assets Media du groupe . La plateforme construite en interne à partir de logiciels libres dans une méthodologie Agile (Scrum) a pour objectifs principaux : - La mise en commun des catalogues de médias entre la France et l’international, entre la TV et le cinéma et à terme d’être la plateforme de référence du groupe VIVENDI - La remise à plat de l’ensemble des workflows avec l’ensemble des utilisateurs pour une meilleure efficacité opérationnelle (ergonomie et automatisation), une réactivité par rapport aux nouveaux usages (UHD, HDR, IMF etc.) et une meilleure intégration via nos APIs à l’écosystème Média avec les Majors (Sony, Disney, Warner etc.) et les plateformes (Netflix, Amazon, MyCanal). - D’un point de vue technique, l’application en charge de la gestion des essences media (fichiers audio, vidéo, sous-titres, etc). Elle est composée par un ensemble de Micro-Services développés en Scala (~50), en Golang (1) et en Kotlin (1) qui sont hébergés dans le Cloud (AWS) et On Premise (VMWare). - Un MacBook pro est fourni à tous les développeurs, le travail est organisé suivant des sprints de 2 semaines et l’équipe est constituée de plusieurs feature teams complètes (P.O / Devops / Recette / Dev) se partageant un Scrum Master et un UI/UX Designer. - Compte tenu des enjeux importants tant au niveau fonctionnel et technique qu’au niveau du calendrier, nous recherchons des candidats : - Dynamiques et motivés, capables de voir au-delà de leur tâche affectée de de s’inquiéter de la complétion de la User Story dans son ensemble (incluant la conception, les tests, la cohérence des livrables). - Sérieux et autonomes, permettant d’être un relais efficace des Lead Dev présents dans l’équipe, mais n’hésitant pas à poser des questions si nécessaires.

CDI
Freelance

Offre d'emploi
Data Architect AWS et Databricks

AEROW
Publiée le
AWS Cloud
Databricks

1 an
10k-80k €
La Défense, Île-de-France

Nous cherchons un Architecte Data expérimenté pour superviser la mise en place d'un datalake et d'un data warehouse, avec une expertise dans les environnements Legacy. Le candidat idéal devra non seulement posséder une expérience de 8 ans minimum en tant qu'architecte data, mais également être capable d'être force de proposition sur les architectures cibles, d'organiser les projets et d'assurer le déploiement réussi des solutions de données. Compétences techniques : • Expérience professionnelle minimale de 8 ans en architecture de données avec une expertise avérée en AWS et Databricks. • Capacité avérée à formuler des propositions sur l'architecture cible et à mener des projets complexes. • Orientation "delivery" forte avec une approche orientée résultats. • Connaissance approfondie des environnements Legacy et capacité à adapter les architectures en conséquence. Profil : • Diplôme en informatique, en génie logiciel ou dans une discipline similaire. • Excellentes compétences en communication pour expliquer des concepts complexes de manière simple et pédagogique. • Capacité démontrée à développer et présenter une vision claire sur l'utilisation des données à moyen et long terme. • Sensibilité à l'importance d'une gouvernance de données efficace et structurée. Savoir être : • Bon communiquant • Fédérateur • Rigoureux et méthodique • Facilitateur • Orienté delivery

Freelance

Mission freelance
Data Architect

R&S TELECOM
Publiée le
Databricks
Power BI Desktop
PySpark

6 mois
440-500 €
Lyon, Auvergne-Rhône-Alpes

Contexte de la Mission : Nous sommes à la recherche d'un Data Architect qui assumera la responsabilité complète de l'architecture des données. Cette personne devra avoir une solide compréhension des services disponibles dans Azure Analytics et travaillera en étroite collaboration avec plusieurs équipes . Elle jouera un rôle clé dans la conception de l'architecture des données et fournira un soutien tout au long du cycle de vie de la gestion des données. Tâches à Réaliser : • Assurer le leadership technique, participer au développement et représenter les ressources internes et externes de la plateforme. • Être un membre actif de l'équipe des architectes pour superviser le processus de gestion des données et fournir des conseils aux équipes de développement. • Être responsable de la conception et de la documentation de la solution dans votre domaine.

Freelance

Mission freelance
Architecte Data Azure et Snowflake

Inventiv IT
Publiée le
Azure
BigQuery
Databricks

12 mois
660-780 €
La Défense, Île-de-France

Architecte Data Azure et Snowflake . - Il maîtrise le panel des exigences fonctionnelles et non fonctionnelles à collecter afin d'assurer l'efficience opérationnelle et la pérennité de la data platform. - Expert et maîtrise tous les outils et services de l’écosystème Azure et a des facilités pour étendre votre champ de compétences. - proactif/ve sur la veille technique et la capitalisation et veille à garder toujours un temps d'avance sur l'état de l'art du secteur afin de pouvoir guider ses clients. - En tant qu'architecte expérimenté(e) il peut intervenir sur des missions opérationnelles pour concevoir la solution cible ou en phase de cadrage amont pour guider les choix et construire les roadmaps. - pédagogue et sait communiquer et vulgariser des réflexions complexes pour les rendre accessibles à tous.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Tech Lead Développement Big Data

Digistrat consulting
Publiée le
Apache Spark
Github
Scala

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Tech Lead Big Data. Périmètre fonctionnel : banque d'investissement Les principales tâches de la missions sont les suivantes :  Développement, Clean code,  L'intégration continue,  La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing)  Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données  L'assistance à la conception technique du produit  Diverses assistances techniques (sujets techniques complexes sur le produit, etc...)  La revue de code  L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique  L'analyse de l'impact de la conception du produit sur l'architecture technique du SI  L'architecture technique aux choix d'implémentation dans le SI  La maintenabilité technique du produit  La stratégie de développement et de tests selon critères pré-définis Autres :  Support applicatif via le monitoring et résolution associée  DevOps pour les parties IAAS et CD.  Environnement anglophone

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI
CDD

Offre d'emploi
Un(e) Développeur Fullstack Scala Angular - Luxembourg

EXMC
Publiée le
AngularJS
Apache Kafka
API REST

6 mois
40k-65k €
Luxembourg

Développeur Fullstack Scala Angular Description des tâches Les équipes sont organisées par domaine métier. Vous intégrerez le domaine Contrat Marché belge à plein temps où vous aurez la charge de : · Travailler dans un environnement agile · Concevoir, réaliser, tester, déployer, monitorer vos réalisations en Scala · Maintenir des APIs (Scala) et des Fronts (Angular) modulaires et intégrables · D’adhérer aux principes d’améliorations continues et de modernisation du domaine · De devenir un expert dans certaines parties du domaine applicatif avec une mission longue Les équipes se composent d’un Product Owner, 2 Business Analyst, 1 Scrum Master et de plusieurs développeurs qui évoluent dans la méthodologie Scrum; et travaillent étroitement avec les parties prenantes du côté métier. Compétences souhaitées · [FRONT] Vous avez une bonne expérience dans la conception d'architecture basée sur des composants utilisant Angular. React ou Vue.js sont également accepté · [FRONT] Vous maîtrisez HTML / CSS / JS · [FRONT] Vous êtes en mesure de consommer des APIs REST · [FRONT] Vous savez intégrer des maquettes réalisées par des designers (dans Figma) · [BACK] Vous maîtrisez la programmation Objet (Java 8, ...), · [BACK] La maîtrise de la programmation fonctionnelle (Scala, ...) est un réel atout · [BACK] Vous avez de l'expérience avec les DB relationnelles (Db2) · [BACK] La connaissance en DB non relationnelles (MongoDB) est un réel atout · [BACK] La connaissance de la programmation événementielle (event sourcing) avec KAFKA est un réel atout. · [BACK] Vous avez des connaissances dans la conception d’APIs REST · Vous êtes capable de faire monter en compétence vos pairs au travers de code-review, pair programming, … · Vous maîtrisez l’entièreté d’une chaine de développement, et avez la capacité de pousser et de justifier des choix d’architecture · Vous utilisez des outils de déploiement continu (K8s, Jenkins, …) et de monitoring (Instana et Sentry) · Vous savez collaborer avec des développeurs d’autres équipes afin d’améliorer les systèmes et les processus dans un environnement organisé par domaines · Vous êtes proactif, appréciez le travail en équipe et désireux d’apprendre · Vous êtes familier avec un outil de versionning de code tel que Git · Vous êtes en mesure de venir sur site à Leudelange (à raison d'au moins 3 jours par semaine) En plus: · Expérience avec des frameworks de tests unitaires · Utilisation du standard JSON-API

Freelance

Mission freelance
Data Engineer

MOBILE TECH PEOPLE
Publiée le
Azure
PySpark
Python

12 mois
100-410 €
Hauts-de-France, France

Nous recherchons pour le compte d'un de nos clients un Data Engineer en gestion de données Azure, souhaitant contribuer à des projets innovants dans un environnement dynamique et en constante évolution. Vous aurez l'occasion de travailler sur des tâches variées allant de la gestion de base de données SQL sur Azure à l'automatisation des pipelines ETL et au développement de scripts Python pour le web scraping. xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

CITECH
Publiée le
Apache Spark
Scala
Talend

1 an
45k-65k €
Paris, France

CITECH recrute ! 👌 👍 Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Support de l'application (notamment lors des clôtures mensuelles). 🔸 Participer à la maintenance évolutive. 🔸 Participer à la conception et l'implémentation de nouvelles fonctionnalités. 🔸 Participer à la refonte technique. 🔸 Participer à la migration de Talend vers Spark/scala.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous